Информатика, вычислительная техника и управление. Рубрика в журнале - Вестник Донского государственного технического университета
Analysis of natural language processing technology: modern problems and approaches
Статья научная
Introduction. The article presents an overview of modern neural network models for natural language processing. Research into natural language processing is of interest as the need to process large amounts of audio and text information accumulated in recent decades has increased. The most discussed in foreign literature are the features of the processing of spoken language. The aim of the work is to present modern models of neural networks in the field of oral speech processing.Materials and Methods. Applied research on understanding spoken language is an important and far-reaching topic in the natural language processing. Listening comprehension is central to practice and presents a challenge. This study meets a method of hearing detection based on deep learning. The article briefly outlines the substantive aspects of various neural networks for speech recognition, using the main terms associated with this theory. A brief description of the main points of the transformation of neural networks into a natural language is given.Results. A retrospective analysis of foreign and domestic literary sources was carried out alongside with a description of new methods for oral speech processing, in which neural networks were used. Information about neural networks, methods of speech recognition and synthesis is provided. The work includes the results of diverse experimental works of recent years. The article elucidates the main approaches to natural language processing and their changes over time, as well as the emergence of new technologies. The major problems currently existing in this area are considered.Discussion and Conclusions. The analysis of the main aspects of speech recognition systems has shown that there is currently no universal system that would be self-learning, noise-resistant, recognizing continuous speech, capable of working with large dictionaries and at the same time having a low error rate.
Бесплатно
Comparison of machine learning models for coronavirus prediction
Статья научная
Coronavirus, also known as COVID-19, was first detected in Wuhan, China, in December 2019. It is a family of viruses ranging from the common cold to severe acute respiratory syndrome (SARS). The symptoms of such a virus are similar to those of a cold or seasonal allergies. Like other respiratory viruses, it is mainly transmitted through airborne droplets when coughing or sneezing. Therefore, the recognition of COVID-19 requires careful laboratory analysis, and the reduction of recognition resources is a major challenge. On 11 March, 2020, the World Health Organization (WHO) declared COVID-19, caused by SARS-CoV-2, a pandemic, as there had been an exponential increase in cases worldwide, and demand for intensive beds and related structures had far exceeded existing capacity. The first examples of this are the regions of Italy. Brazil registered the first case of SARS-CoV-2 on 02/26/2020. Transmission of the virus in this country shifted very quickly from imported cases to local and, finally, community missions, with the Brazilian federal government announcing national community transmission on 03/20/2020. As of March 23, in the state of São Paulo with a population of about 12 million people, where the Israelita Albert Einstein Hospital is located, 477 cases of the disease and 30 related deaths were registered, and on March 27, there were already 1223 cases of COVID-19 with 68 concomitant deaths. To slow the spread of the virus in the state of São Paulo, quarantines and social distancing measures were introduced. One of the motivations for this challenge is the fact that, in the context of an extensive healthcare system with the possible limitation of SARS-CoV-2 testing, it is not practical to test every case, and test results can only be used in testing the target subpopulation. The study objective is to build a model based on machine learning that can predict the detection of SARS-CoV-2 from medical data. For this, various classification models of machine learning are compared, and the best one to predict coronaviruses is determined. The comparison is based on individuals in class 1, i.e., those with a positive test. Therefore, it is required to determine the machine learning model with the best response and F1 score for class 1.Materials and Methods. An open-source data set from the Israelita Albert Einstein Hospital in São Paulo, Brazil, was taken as a basis. The following machine learning models were used for the study: RandomForests (RF), K-Nearest Neighbor (KNN), Support Vector Machine (SVM), Logistic Regression (LR), Decision Tree (DT) and AdaBoost (AB), as well as the 10-time cross-validation technique. Some machine learning performance measures, such as accuracy, recall, and F1 score were evaluated.Results. Out of a total of 5,644 people tested during the COVID-19 pandemic, 5,086 people tested negative and 558 people tested positive. At the same time, support for machine vectors showed the best results in detecting coronavirus with a recall of 75 % and an F1 score of 60 % compared to models: Random drill, KNN, LR, AB, and DT.Discussion and Conclusions. It was found that when using AB algorithms, greater accuracy is achieved, but the stability of the LSVM algorithm is higher. Therefore, it can be recommended as a useful tool for detecting COVID-19.
Бесплатно
Criteria of evaluating augmented reality applications
Статья научная
Introduction. The field of augmented reality (AR) is growing rapidly and has great advances in interaction, navigation and tracking. Nowadays there are a lot of trends for AR applications in different areas (education, entertainment, business, medicine, etc.). However, there is a lack of research to provide the evaluating AR apps framework to support developers when creating suitable AR applications for specific needs. We provide a practical approach to quantify some of the AR applications features. We focus on the development of criteria for evaluating augmented reality applications. We discuss the criteria of choosing dimensions for that space such as standards for AR, tools for AR development, navigation and tracking, content management, usability. We provide analysis and evaluation of AR apps through each characteristic using guidelines which we have developed.Materials and Methods. An AR application is a software application that integrates digital visual, audio and other types of content into a real-world environment. The software quality and performance are the main characteristics of the application, which are key factors for AR applications. The analysis of scientific papers, documents and standards made it possible to determine characteristics that are the most significant quality indicators based on well-grounded users’ needs and demands.Results. The criteria we have developed for evaluating applications with augmented reality enable developers to create their own software products in stages, based on step-by-step requirements for them, evaluating the development process by characteristics. This approach will allow you to create high-quality software products using standardized, modern development tools.Discussion and Conclusions. In addition, developers will have a detailed understanding of each stage of creating the application and the necessary development tools and technologies to obtain the highest quality result. That will give an opportunity to decide on specific development tools, methods, models and technologies before starting work on a project. As a result, it will provide the final high-quality software product with good extensibility and compliance with the modern requirements of the digital industry market.
Бесплатно
Describing pulmonary nodules using 3D clustering
Статья научная
Introduction. Determining the tumor (nodule) characteristics in terms of the shape, location, and type is an essential step after nodule detection in medical images for selecting the appropriate clinical intervention by radiologists. Computer-aided detection (CAD) systems efficiently succeeded in the nodule detection by 2D processing of computed tomography (CT)-scan lung images; however, the nodule (tumor) description in more detail is still a big challenge that faces these systems.Materials and Methods. In this paper, the 3D clustering is carried out on volumetric CT-scan images containing the nodule and its structures to describe the nodule progress through the consecutive slices of the lung in CT images.Results. This paper combines algorithms to cluster and define nodule’s features in 3D visualization. Applying some 3D functions to the objects, clustered using the K-means technique of CT lung images, provides a 3D visual exploration of the nodule shape and location. This study mainly focuses on clustering in 3D to discover complex information for a case missed in the radiologist’s report. In addition, the 3D-Density-based spatial clustering of applications with noise (DBSCAN) method and another 3D application (plotly) have been applied to evaluate the proposed system in this work. The proposed method has discovered a complicated case in data and automatically provides information about the nodule types (spherical, juxta-pleural, and pleural-tail). The algorithm is validated on the standard data consisting of the lung computed tomography scans with nodules greater and less than 3mm in size.Discussion and Conclusions. Based on the proposed model, it is possible to cluster lung nodules in volumetric CT scan and determine a set of characteristics such as the shape, location and type.
Бесплатно
Determinants factors in predicting life expectancy using machine learning
Статья научная
Introduction. Life expectancy is, by definition, the average number of years a person can expect to live from birth to death. It is therefore the best indicator for assessing the health of human beings, but also a comprehensive index for assessing the level of economic development, education and health systems . From our extensive research, we have found that most existing studies contain qualitative analyses of one or a few factors. There is a lack of quantitative analyses of multiple factors, which leads to a situation where the predominant factor influencing life expectancy cannot be identified with precision. However, with the existence of various conditions and complications witnessed in society today, several factors need to be taken into consideration to predict life expectancy. Therefore, various machine learning models have been developed to predict life expectancy. The aim of this article is to identify the factors that determine life expectancy. Materials and Methods. Our research uses the Pearson correlation coefficient to assess correlations between indicators, and we use multiple linear regression models, Ridge regression, and Lasso regression to measure the impact of each indicator on life expectancy . For model selection, the Akaike information criterion, the coefficient of variation and the mean square error were used. R2 and the mean square error were used. Results. Based on these criteria, multiple linear regression was selected for the development of the life expectancy prediction model, as this model obtained the smallest Akaike information criterion of 6109.07, an adjusted coefficient of 85 % and an RMSE of 3.85. Conclusion and Discussion. At the end of our study, we concluded that the variables that best explain life expectancy are adult mortality, infant mortality, percentage of expenditure, measles, under-five mortality, polio, total expenditure, diphtheria, HIV / AIDS, GDP, longevity of 1.19 years, resource composition, and schooling. The results of this analysis can be used by the World Health Organization and the health sectors to improve society.
Бесплатно
Evaluation of pavement condition deterioration using artificial intelligence models
Статья научная
Introduction. One of the most significant tasks facing road experts is to maintain the transport network in good condition. The process of selecting an appropriate approach to providing such condition is quite complex since it requires considering many parameters, such as the existing condition of the pavement, road category, weather conditions, traffic volume, etc. Recently, the rising trend of digitization in the industry has contributed to the use of artificial intelligence to address problems in several fields, including the bodies in charge of operational control over the status of roadways. Within the context of any control system, the main task of the control system is to carry out reliable forecasting of the operational state of the road in the medium and long term.Materials and Methods. This study investigated the possibility of using artificial neural networks to assess existing pavement characteristics and their potential application in developing road maintenance strategies. A back-propagation neural network was implemented, trained using data from 1,614 investigated sections of the M4 «DON» highway in the road network of the Russian Federation in the period from 2014 to 2018. Several models were developed and trained using the MATLAB application, each with a different number of neurons in the hidden layers.Results. The results of the models showed a convergence between the inferred paving state values and the actual values, as the multiple correlation coefficient (R2) values exceeded 92 % for most of the models during all learning stages.Discussion and Conclusions. The findings suggest that public road authorities may utilize the established models to choose the best road maintenance strategy and assign the most efficient steps to restore road bearing capacity and operation.
Бесплатно
Evaluation of the elastic modulus of pavement layers using different types of neural networks models
Статья научная
Introduction. This paper studies the capability of different types of artificial neural networks (ANN) to predict the modulus of elasticity of pavement layers for flexible asphalt pavement under operating conditions. The falling weight deflectometer (FWD) was selected to simulate the dynamic traffic loads and measure the flexural bowls on the road surface to obtain the database of ANN models.Materials and Methods. Artificial networks types (the feedforward backpropagation, layer-recurrent, cascade back- propagation, and Elman backpropagation) are developed to define the optimal ANN model using Matlab software. To appreciate the efficiency of every model, we used the constructed ANN models for predicting the elastic modulus values for 25 new pavement sections that were not used in the process of training, validation, or testing to ensure its suitability. The efficiency measures such as mean absolute error (MAE), the coefficient of multiple determinations R2, Root Mean Square Error (RMSE), Mean Absolute Percent Error (MAPE) values were obtained for all models results.Results. Based on the performance parameters, it was concluded that among these algorithms, the feed-forward model has a better performance compared to the other three ANN types. The results of the best four models were compared to each other and to the actual data obtained to determine the best method.Discussion and Conclusions. The differences between the results of the four best models for the four types of algorithms used were very small, as they showed the closeness between them and the actual values. The research results confirm the possibility of ANN-based models to evaluate the elastic modulus of pavement layers speedily and reliably for using it in the structural assessment of (NDT) flexible pavement data at the appropriate time.
Бесплатно
GATCGGenerator: новый генератор для создания квазислучайных нуклеотидных последовательностей
Статья научная
Введение. В последние десятилетия знания о ДНК все шире применяются для решения небиологических задач (вычисления с помощью ДНК, долговременное хранение информации). В первую очередь речь идет о случаях, когда необходимо подобрать искусственные нуклеотидные последовательности. Для их создания используются специальные программы. Однако существующие генераторы не учитывают физико-химические свойства ДНК и не позволяют получать последовательности с явно выраженной «небиологической» структурой. Фактически они генерируют последовательности, распределяя нуклеотиды случайным образом. Целью данной работы является создание генератора квазислучайных последовательностей с особой нуклеотидной структурой. Он должен учитывать некоторые физико-химические особенности нуклеотидных структур и будет задействован при хранении небиологической информации в ДНК.Материалы и методы. Описано новое программное обеспечение GATCGGenerator для генерации квазислучайных последовательностей нуклеотидов. Оно предоставляется как SaaS (от англ. software as a service - программное обеспечение как услуга), что обеспечивает его доступность с разных устройств и платформ. Программа генерирует последовательности определенной структуры с учетом гуанинцитозинового (GC) состава и содержания динуклеотидов. Представлена работа алгоритма новой программы. Требования к сгенерированным нуклеотидным последовательностям заданы с помощью чата в «Телеграм» (Telegram), наглядно показано взаимодействие с пользователем. Определены и обобщены различия входных параметров и получаемых в результате работы программы конкретных нуклеотидных структур. Также в сопоставлении даны временные затраты генерации последовательностей при различных входных данных. Изучены короткие последовательности, различающиеся по типу, длине, GC-составу и содержанию динуклеотидов. В табличном виде показано, как в этом случае соотносятся входные и выходные параметры.Результаты исследования. Созданное программное обеспечение сравнили с существующими генераторами нуклеотидных последовательностей. Установлено, что генерируемые последовательности отличаются по структуре от известных ДНК-последовательностей живых организмов, а значит, могут быть использованы в качестве вспомогательных или маскирующих олигонуклеотидов, пригодных для молекулярно-биологических манипуляций (например - реакции амплификации), а также для хранения в молекулах ДНК небиологической информации (изображений, текстов и т. д.). Предложенное решение дает возможность формировать специфические последовательности длиной от 20 до 5 000 нуклеотидов с заданным числом динуклеотидов и без гомополимерных участков. Более жесткие условия генерации снимают известные ограничения и позволяют создавать квазислучайные последовательности нуклеотидов по заданным входным параметрам. Кроме количества и длины последовательностей можно заранее определить GC-состав, содержание динуклеотидов и природу нуклеиновой кислоты (ДНК или РНК).Приводятся примеры коротких последовательностей, различающихся по длине, GC-составу и содержанию динуклеотидов.Полученные 30-нуклеотидные последовательности прошли проверку. Установлено отсутствие 100-процентной гомологии с известными ДНК-последовательностями живых организмов. Максимальное совпадение наблюдалось для сгенерированных последовательностей длиной 25 нуклеотидов (сходство около 80 %). Таким образом доказано, что GATCGGenerator может с высокой эффективностью генерировать небиологические нуклеотидные последовательности.Обсуждение и заключение. Новый генератор позволяет создавать нуклеотидные последовательности in silico с заданным GC-составом. Решение дает возможность исключить гомополимерные фрагменты, что качественно улучшает физико-химическую стабильность последовательностей.
Бесплатно
Статья научная
Introduction. This paper is devoted to the development of a method for estimating the current time-frequency parameters of each of a set of simultaneously and independently operating generators in the radio electronic system. A general case is considered, in which the deviation of true values of the nominal generator parameters from the assumed values of these parameters is determined not only by random, but also by long-term frequency deviation. The work objective is to generalize the method for estimating the time-frequency parameters of signals (long-term nominal frequency and current frequency deviation from the nominal value) based on the simultaneous measurement of the phases of signals generated in the system of independently functioning generators. The research task is to consider a system of simultaneously and independently operating generators. Each of them generates harmonic signals, whose time-frequency parameters, such as the average frequency, are constant during a certain interval of observation. But herewith, these time-frequency parameters are known with insufficient accuracy due to the influence of external factors (changes in temperature, pressure, supply voltage, etc.). It is required to obtain estimates of the time-frequency parameters of signals (the duration of the measuring interval, values of the long-term frequency and the standard deviation) from the results of measurements of the phases of signals formed by the generators at measuring intervals belonging to the observation interval, within which the average frequency remains constant.Materials and Methods. A system of simultaneously and independently functioning generators is considered. The long- term value of signal frequency for each of the generators over the observation interval remains constant, but it is known with some margin of error. During the observation interval, several measurements of the signal phase of each of the generators are performed. At the same time, the current values of the signal frequency and the duration of the measuring interval have random deviations from the long-term values, and follow the normal distribution law with zero mathematical expectation and a known variance. The estimation of time-frequency parameters based on the results of measuring the signal phases is carried out using a multidimensional likelihood function. The maximum is found on the base of solving the redefined system of linear algebraic equations.Results. A new mathematical model and a numerical-analytical method for determining the time-frequency parameters of signals are developed. They take into account both the long-term constant frequency deviation and short-term random deviations.Discussion and Conclusions. The results obtained can be used under the development and creation of data-measuring and information-telecommunication systems, including geographically distributed systems. The resulting estimates of the time-frequency parameters enable to increase the signal frequency stability and, accordingly, to improve the accuracy of measurements and the quality of information transfer.
Бесплатно
Статья научная
Introduction. Perianal fistula rapidly develops an abscess, requiring surgical decompression. However, simple cases must be managed. However, for patients with renal insufficiency, MRI with contrast is contraindicated. It is proposed to use diffusion-weighted images that can diagnose anal fistulae, showing areas of high signal intensity (inflammatory tissues). The aim is to determine sensitivity of diffusion-weighted image combined with T2 turbo inversion recovery magnitude and as an alternative technique to contrast-enhanced MRI using clinical examination as a reference.Materials and Methods. Study included fifty patients with a clinical diagnosis of perianal fistula. MRI sequences were T2 turbo inversion recovery magnitude in oblique coronal and axial planes, diffusion-weighted image, and T1 weighted image turbo spin echo (fat suppression) pre- and post-administration of contrast agents in oblique axial planes. Three radiologists evaluated the MR imaging data using a questionnaire of parameters that necessitated a binary response, “yes” or “no” answer.Results. Diffusion-weighted image combined with axial T2 turbo inversion recovery magnitude sequence had 96.7 %. All raters agreed that it is sensitive enough to correctly identify perianal fistula with a moderate Kappa agreement (k = 0.586) and p-value function show_abstract() { $('#abstract1').hide(); $('#abstract2').show(); $('#abstract_expand').hide(); }
Бесплатно
Статья научная
Introduction. Truss structures are widespread in construction due to a number of advantages, such as economy, versatility, and scalability. Accordingly, their modeling and calculation are urgent tasks in the design of building structures. Automatic solution to these problems causes an increase in design efficiency, calculation accuracy, and lower costs. The objective of the study is to examine the functionality and operation algorithm of the software module developed by the authors that generates the geometry of two-dimensional truss structures for subsequent modeling.Materials and Methods. Following the research of the widespread truss configurations, the classification of chords available in the software under consideration is given. The method of parameterizing a truss structure is provided. This method includes base geometric parameters of the structure such as dimensions, model construction rules, and additional features, as well as a comprehensive algorithm. The software is developed in JavaScript.Results. The software module has been integrated into a web application for calculating two-dimensional rod structures. To illustrate the functionality of the software, the examples of user interface are given as well as an example problem. The example includes configuration and calculation of an inclined truss structure. The results, such as support reactions and internal forces with axial force diagram, are provided.Discussion and Conclusions. Using this software module within the framework of the tool for calculating rod structures allows for the simplified process of modeling and calculating complex truss structures, design time, and resource reduction. The software module provides tools for specifying various types of structures, applying loads and assigning properties of a rod system, which makes it a useful instrument for design engineers.
Бесплатно
Web-приложение для математического моделирования нестационарного течения нефти в пористой среде
Статья научная
Введение. Основу для анализа и интерпретации данных гидродинамических исследований составляют теоретические модели и вычислительные алгоритмы. Но, несмотря на востребованность данной тематики, многие вопросы, связанные с нестационарными течениями жидкостей в нефтяных пластах, все еще требуют решений. Поэтому математические постановки задач, связанных с учетом нестационарного течения жидкости, разработка эффективных численных методов и алгоритмов, их решение с применением современных web-технологий являются актуальными. Цель данной работы - разработка web-приложения для математического моделирования процесса фильтрации жидкости в однопоровых коллекторах при проведении гидродинамического исследования на добывающей скважине.Материалы и методы. Для решения поставленной задачи применены методы механики сплошной среды и вычислительной математики. Представлена модель течения нефти в однопоровом коллекторе. При разработке приложения использованы языки программирования Python и JavaScript. Результаты расчетов хранятся в реляционной базе данных, реализованной средствами PostgreSQL.Результаты исследования. Разработано новое web-приложение для моделирования процесса фильтрации нефти в однопоровых коллекторах, которое применимо для изучения флюидодинамических процессов и может быть использовано для прогноза дебитов, добычи и расчета оптимальных режимов работы скважин.Обсуждение и заключение. Разработанное web-приложение позволяет строить поля давления и температуры в пласте около работающей и остановленной добывающей скважины и на различных расстояниях от нее. Данная информация дает возможность оперативно оценивать длительность гидродинамических исследований, а также регулировать работу скважин. Приложение может быть развернуто в существующей сетевой инфраструктуре, пользоваться всем функционалом, подключаясь к удаленному серверу. Оно оптимизировано для использования на различных платформах и имеет широкие перспективы дальнейшего развития.
Бесплатно
Автоматизация процесса многокритериального ранжирования студентов с помощью электронного портфолио
Статья научная
Введение. Работа посвящена повышению качества управления образовательной организацией за счет автоматизации персонифицированного сбора, хранения и ранжирования данных. Авторами разработан модуль корпоративной системы вуза - электронное портфолио студентов, в котором реализован метод многокритериальной оптимизации для расчета рейтинга обучающихся на основе собранных и хранящихся данных. Объектом исследования являются методы многокритериального ранжирования. Предметом исследования является автоматизированный расчет рейтинга студента в рамках электронного портфолио. Целью исследования является разработка инструментария для сбора, хранения и обработки данных об индивидуальных достижениях студентов и реализация математического метода многокритериальной оптимизации для ранжирования обучающихся на основе данных портфолио. Практическая значимость исследования - предоставить инструмент для эффективного управления учебным процессом. Метод и инструментарий. Представлен прототип модуля корпоративной системы вуза «Электронное портфолио» на платформе «1С: Предприятие 8.3»...
Бесплатно
Статья научная
Введение. Системы электронного документооборота (СЭД) используются для хранения, обработки и передачи больших объемов информации. Автоматизация данных процессов является актуальной проблемой, требующей комплексного решения. Ее решение позволит снизить временные и материальные затраты на проектирование и осуществить переход к более совершенным, адаптивным СЭД. Статья посвящена разработке новых методов автоматизации процесса распределения информации в СЭД.Целью работы является повышение точности распределения информации в СЭД за счет перехода от аналитических или алгоритмических решений к использованию новых методов, функционирующих на основе технологий машинного обучения. Использование нейронных сетей для достижения поставленной цели также позволит повысить эффективность разработки программного обеспечения за счет автоматизации процессов анализа и обработки информации.Материалы и методы. Предложен новый метод автоматизированного распределения информации на основе технологий машинного обучения, включающий математическое описание правил распределения информации. Сформулированный перечень условий распределения информации позволяет реализовать программное обеспечение на основе нейронных сетей для решения задачи автоматического распределения данных в СЭД.Результаты исследования. Метод автоматизированного распределения информации апробирован на примере предметной области СЭД при решении задачи анализа правильности информации, введенной пользователем. В ходе экспериментальных исследований получено, что предложенный метод, функционирующий на основе технологий машинного обучения, обеспечивает лучшую точность (на 8 % выше) и более эффективен (в соответствии с метриками Джилба и цикломатической сложности)Обсуждение и заключения. Полученные результаты подтверждают эффективность и точность предложенного метода. Представленные результаты могут использоваться для автоматизации процессов распределения и проверки информации в адаптивных СЭД, а также других информационных системах. На основе разработанного метода также возможно решение связанных задач: поиск дубликатов и похожих документов, классификация и размещение по категориям файлов.
Бесплатно
Статья научная
Целью данной работы является повышение эффективности автоматизации технологических процессов химической промышленности и родственных ей отраслей. Рассматривается типичный для отрасли процесс приготовления раствора и решается задача разработки векторного закона управления, эффективного как в плане интенсивности или быстродействия, так и в плане взаимной инвариантности процессов управления различными технологическими переменными. Для решения этой задачи использован подход к синтезу законов управления на основе желаемых характеристик синтезируемой системы управления. При построении желаемой математической модели управляемого аппарата приготовления раствора задействована математическая модель квазиоптимального по быстродействию управления. В результате синтеза сформулирован достаточно сложный нелинейный векторный закон управления, который, однако, обеспечивает все свойства, заложенные в парадигму его построения и реализации. Выполнено имитационное моделирование многоконтурной системы автоматического управления с реализацией синтезированных законов и исследование построенной модели. Это позволило полностью подтвердить абсолютную автономность управления уровнем раствора выходного потока в аппарате, а также его концентрацией. Кроме того, доказана независимость управляемых переменных от изменения нагрузки - расхода приготавливаемого раствора. Полученные данные могут быть использованы на химических и родственных им производствах (пищевых, нефтеперерабатывающих и др.). Материалы и результаты представленных исследований показывают, что для эффективного синтеза векторных законов управления нелинейными многосвязными объектами метод эталонных математических моделей может использоваться в сочетании с парадигмой квазиоптимизации быстродействия этих законов.
Бесплатно
Автоматическое распознавание автомобильных номерных знаков
Статья научная
Введение. Статья посвящена задаче автоматического обнаружения и распознавания автомобильных номеров, решение которой имеет множество потенциальных применений, начиная от обеспечения безопасности и заканчивая управлением трафиком на дорогах. Целью данной работы являлась разработка интеллектуальной системы нахождения и распознавания автомобильных номеров, основанной на применении алгоритмов глубокого обучения и сверточных нейронных сетей, учитывающей различные региональные стандарты автомобильных номеров, и устойчивой к различным расположениям камеры, качеству видео, освещению, погодным условиям и деформациям номерных знаков.Материалы и методы. Предложен комплексный подход к решению задачи, основанный на применении сверточных нейронных сетей. Проведен экспериментальный анализ нейросетевых моделей, обученных под требования задачи универсального распознавания номерного знака. На его основании были выбраны модели, показывающие лучшее соотношение качества и быстродействия. Качество системы обеспечивается оптимизацией различных моделей с различными модификациями...
Бесплатно
Статья научная
Введение. Настоящая работа посвящена уменьшению времени коррекции оценки пространственной ориентации твердого тела в момент включения системы ориентации. Для определения пространственной ориентации твердого тела используются интегрированные показания от трех ортогонально расположенных датчиков угловой скорости. Возникающая при интегрировании разница между реальной пространственной ориентацией и ориентацией, оцененной с помощью датчиков, корректируется за счет информации, получаемой от других датчиков, таких как акселерометры и магнитометры. В большинстве существующих методов информация, полученная от акселерометров и магнитометров и преобразованная с помощью алгоритма, умножается на коэффициент коррекции и вычитается из оценки угловой скорости, тем самым корректируя оценку пространственной ориентации. Чем больше угол наклона твердого тела относительно горизонта в момент включения системы ориентации, тем больше ошибка оценки пространственной ориентации. Предлагаемый в данной работе алгоритм корректирует оценку пространственной ориентации в компонентах кватерниона без использования датчиков угловой скорости, что позволяет за меньшее, по сравнению с существующими алгоритмами, время свести к минимуму ошибку оценки ориентации. Материалы и методы. Для отработки алгоритма коррекции был использован датчик MPU 6050, выполненный по микроэлектромеханической технологии и имеющий в одном корпусе три ортогонально расположенных измерителя угловой скорости и три ортогонально расположенных акселерометра. Информацию, поступающую с MPU 6050, обрабатывает микроконтроллер dsPIC 33 EP 256 MU 806. Пространственная ориентация вычисляется через параметры Родрига-Гамильтона в компонентах кватерниона, результат вычислений передается в программный пакет Matlab, выполняющий программу для визуализации зависимостей от времени четырёх компонент кватерниона в виде графиков. Результаты исследования. В существующих алгоритмах, использующих параметры Родрига-Гамильтона, при начальной инициализации системы ориентации авторами предложено увеличивать значение коэффициента коррекции на время инициализации, либо с помощью тригонометрических формул находить углы Эйлера и переводить их в параметры Родрига-Гамильтона. В первом случае время начальной инициализации остается достаточно большим, во втором случае, из-за использования углов Эйлера, может возникать такое явление как «шарнирный замок». Предложенный в данной работе алгоритм осуществляет начальную инициализацию за время, сравнимое со временем инициализации в углах Эйлера, но при этом использует только параметры Родрига-Гамильтона. Обсуждение и заключения. Использование предложенного алгоритма позволит минимум в 5 раз сократить время начальной инициализации кватерниона пространственной ориентации и, как следствие, общее время, необходимое для приведения системы в рабочее состояние, за счет того, что начальная инициализация необходима при каждом включении системы ориентации. В силу того, что инициализация происходит только по показаниям акселерометра, то для корректного определения пространственной ориентации по предложенному алгоритму необходимым условием является отсутствие любых ускорений на тело кроме ускорения свободного падения.
Бесплатно
Алгоритм обработки рентгеновских изображений с использованием нечеткой логики
Статья научная
Введение. Для улучшения диагностики заболеваний коленного сустава необходимо повысить качество обработки рентгенографических изображений, т.е. дать специалистам более точную информацию для анализа патологии. Цель исследования - показать возможности нечеткой логики в совершенствовании алгоритма определения опорных линий и углов сгибания колена. Для этого необходима программа, которая анализирует рентгеновские снимки. Известные на сегодня методы, описанные в научной и прикладной литературе, недостаточно автоматизированы. В ряде случаев ортопедам и хирургам приходится вручную дорабатывать изображения, корректировать линии. Этот пробел восполняет представленная работа. Описан созданный автором алгоритм, который не предполагает участия человека, автоматически идентифицирует линии и углы сгибания колена. По результату, выданному системой, врач может, во-первых, судить о наличии патологии. Во-вторых, сведения, предоставляемые программой, позволяют точнее планировать, проводить операции и назначать терапию.Материалы и методы. Использовались снимки двух рентгеновских аппаратов, которые работают в больнице Аль-Базель (Латакия, Сирия). Для программной реализации алгоритма задействовали язык «Питон» (Python). Решение протестировали на 500 пациентах больницы Аль-Базель. Сравнивались результаты, которые сгенерировала новая система и предшествующие версии программ обработки рентгеновских снимков.Результаты исследования. Создан, описан и реализован на практике алгоритм построения опорных линий и углов для обработки рентгеновских снимков коленного сустава. Показаны возможности нечеткой логики в автоматизации обнаружения двойного порога при выявлении границ кости на изображениях. Описана работа усовершенствованного гауссовского фильтра, предназначенного для обработки рентгенограмм.Модифицированный метод анализа рентгеновских снимков коленных костей включает разработку алгоритма для автоматического обнаружения структур и аномалий в коленных суставах, определения и измерения анатомических параметров, оценку степени повреждения и т.д.Метод определения границ контуров на рентгенограммах объединил детектор Кэнни, алгоритм водораздела и нечеткую логику. Программа реализована в медицинской практике и показывает точность 98 %, затрачивая на обработку снимка менее 20 секунд.Обсуждение и заключение. Новая система дает высокую точность, приемлемую оперативность и не требует ручной корректировки снимков. Специалисты получили возможность выявить малозаметные индикаторы нарушений. Кроме того, новый метод позволяет разобраться в сложных случаях, когда сочетаются несколько факторов, указывающих на возможную патологию. Широкое внедрение метода повысит качество медицинских услуг в ортопедии. Следует продолжить научные изыскания в данном направлении для расширения набора стратегий лечения заболеваний опорно-двигательного аппарата. Предстоит создать решения с абсолютной точностью, более высокой оперативностью обработки, а также методы, подходящие для анализа других суставов.
Бесплатно
Алгоритм обращения эрмитовой матрицы
Статья научная
Цель работы заключается в повышении быстродействия устройства обращения ковариационной матрицы помех адаптивной антенной решетки за счет сокращения числа выполняемых операций. Это достигается использованием на этапе разработки алгоритма обращения априорной информации о свойстве эрмитовости обращаемой матрицы. В отличие от известных алгоритмов обращения, базирующихся на применении метода Гаусса - Жордана, в основу предложенного алгоритма положен метод окаймления. Актуальность разработки обусловлена сложностью метода Гаусса - Жордана и необходимостью большого числа операций при его использовании. Указанные особенности не позволяют реализовать режим реального времени при обработке сигналов в вычислительных устройствах адаптивных антенных решеток, широко применяемых в системах связи, радиолокации и радионавигации. Предложенный метод, дополняющий известный метод окаймления учетом свойств эрмитовости ковариационной матрицы помех, позволяет построить алгоритм на базе рекуррентных соотношений. Получаемый при этом выигрыш от сокращения объема вычислений составляет не менее 25 % по сравнению с методом Гаусса - Жордана. Уменьшение объема вычислительных затрат, а также более простой вид соотношений, применяемых для построения алгоритма обращения матрицы, дали возможность разработать и более простую схему устройства, которое можно использовать в процессорах адаптивных антенных решеток для получения обратной матрицы.
Бесплатно
Статья научная
Введение. Для повышения оперативности принятия решений на предприятии целесообразно использовать специальный программный комплекс интеллектуальной поддержки. Такой продукт необходим при проектировании системы защиты информации и повышении ее неуязвимости в ходе модернизации или изменения конфигурации. Цели исследования: создание алгоритма и математической модели программного комплекса интеллектуальной поддержки принятия решений.Материалы и методы. Метод поддержки принятия решений при проектировании системы защиты информации базируется на использовании нейронной сети (многослойный персептрон). Для объективной оценки исходной защищенности информационной системы (ИС) сформирована математическая модель анализа событий безопасности.Результаты исследования. Проанализирована статистика злоумышленных воздействий на ИС предприятий. Определена необходимость своевременной и точной модернизации системы защиты информации. Важными характеристиками процесса проектирования системы защиты информации являются скорость получения результата и снижение остаточного риска ИС...
Бесплатно