Название базовой системы (платформы): | Проекты на базе блокчейн-технологии |
Разработчики: | EY - Ernst&Young |
Дата премьеры системы: | 30 августа 2016 г |
Дата последнего релиза: | 2022/07/07 |
Отрасли: | Транспорт |
Содержание |
2022: Tesseract 5.2 с улучшенными сборочными сценариями для Autotools, CMake
Опубликован релиз системы оптического распознавания текста Tesseract 5.2, поддерживающей распознавание символов UTF-8 и текстов на более чем 100 языках, включая русский, казахский, белорусский и украинский. Об этом стало известно 7 июля 2022 года. Результат может сохраняться как открытым текстом, так и в форматах HTML (hOCR), ALTO (XML), PDF и TSV. Изначально система была создана в 1985-1995 годах в лаборатории компании Hewlett Packard, в 2005 году код был открыт под лицензией Apache и в дальнейшем развивался при участии работников компании Google. Исходные тексты проекта распространяются под лицензией Apache 2.0.
Tesseract включает в себя консольную утилиту и библиотеку libtesseract для встраивания функций распознавания текста в другие приложения. Из поддерживающих Tesseract сторонних GUI-интерфейсов можно отметить gImageReader, VietOCR и YAGF. Предлагается два движка распознавания: классический, распознающий текст на уровне шаблонов отдельных символов, и новый, базирующийся на применении системы машинного обучения на базе рекуррентной нейронной сети LSTM, оптимизированной для распознавания целиком строк и позволяющей добиться существенного увеличения точности. Готовые натренированные модели опубликованы для 123 языков. Для оптимизации производительности предлагаются модули, использующие OpenMP и SIMD-инструкций AVX2, AVX, AVX512F, NEON или SSE4.1.
Основные улучшения в Tesseract 5.2:
- Добавлены оптимизации, реализованные с использованием инструкций Intel AVX512F.
- В C API реализована функция для инициализации tesseract с загрузкой из памяти модели машинного обучения.
- Добавлен параметр invert_threshold, определяющий уровень инвертирования текстовых строк. По умолчанию выставлено значение 0.7. Для отключения инвертирования следует выставить значение 0.
- Налажена обработка очень больших документов на 32-разрядных хостах.
- Осуществлён переход с использования функций std::regex на std::string.
- Улучшены сборочные сценарии для Autotools, CMake и систем непрерывной интеграции[1].
2017: Анонс
В конце августа 2017 года консалтинговая компания Ernst & Young (EY) анонсировала автомобильную блокчейн-систему, которая призвана упростить бизнес в сфере каршеринга. Новая разработка получила название Tesseract.
С ее помощью компании или группа частных лиц смогут сделать проще процессы совместного владения автомобилями и организации доступа к легковым и грузовым машинам.
Предполагается, что Tesseract станет единой платформой, к которой будут подключены автопроизводители, разработчики мобильных сервисов, транспортные компании, поставщики инфраструктурных решений и др.
Как рассказал информационному агентству Reuters партнер EY Джон Симлетт (John Simlett), Tesseract позволит организовать совместное использование и владение крупными автопарками, например группой автомобилей, припаркованных на специальной площадке. Получить доступ к автомобилю можно будет с помощью приложения для смартфонов.Метавселенная ВДНХ
Издание отмечает, что концепция совместного использования автотранспорта не нова для рынка, однако внедрение блокчейн-проектов для регистрации прав на автомобили, ведения документации по использованию машин и распределению расходов на страхование и другие нужды находится в зачаточном состоянии.
Тестирование системы Tesseract начнется в четвертом квартале 2017 года. Для этого EY пригласила партнера, имя которого не раскрывается. Подробная информация о технологии не раскрывается.[2]
Tesseract позволит внедрять инновации, коммерциализировать и масштабировать новые модели мобильности и источники доходов. Благодаря платформе автомобили будут чаще эксплуатироваться, но при этом будут снижаться расходы, а транспортный мир станет более экологичным, — заявил руководитель глобального транспортного направления EY Рэнди Миллер (Randy Miller). |