machine learning
Dotaz
Zobrazit nápovědu
Digitalizace laboratoří, aplikace big dat a automatizovaná strojová diagnostika ("machine learning") jsou nástroji pro vznik a fungování toho, co se označuje jako precizní medicína. Genomika, její dominantní metody (qPCR, dPCR, ddPCR, NGS), produkující obrovská kvanta dat (big data) a schopnosti počítačových systémů tyto soubory dat využívat v diagnostice a terapii za významného přispění "umělé inteligence" se označují jako strojová automatizovaná diagnostika - machine learning respektive deep learning). Tyto postupy pronikají z průmyslu a výzkumu do rutinní medicíny včetně medicíny laboratorní. Zvládnutí technických a personálních problémů těchto změn bude stát značné úsilí, srovnatelné s před lety realizovanou přeměnou manuální laboratorní práce na automatizovanou činnost a s přeměnou papírové dokumentace výsledků na laboratorní a nemocniční informační systémy. Lze předpokládat nejen zásadní změny metod laboratorní práce, ale i změny požadavků na odbornost personálu laboratoří a rovněž lze předpokládat nevyhnutelnost radikálního ovlivnění činnosti klinických laboratoří. Etický rozměr nastávajících změn bude stejně závažný, jako ten technický a bude možné očekávat nejen významný progres v diagnostice e prognostice chorob, ale i vzestup rizika zdravotní péče v případě chyb a neprofesionality. Automatická strojová aplikace big dat a používání umělé inteligence jsou náročné, je s nimi v medicíně málo zkušeností, ale vyhnout se jim nebude možné.
Digitalization of clinical laboratories, application of big data and methods of machine learning re contemporary tools for precision medicine. Precision medicine is based mainly on the genomic methods, namely of dominant PCR and NGS methods. These methods produces enormous number of dates (big data) and can be explored by means of artificial intelligence in processes called machine learning. Machine learning was primarily used in industry and research and now contemporary penetrates into medicine and also to laboratory medicine. Methods based on the big data and artificial intelligence with exploration of big data is certainly very important factor of future of medicine. It will be needs large requirements not only on high-technology equipment, but also for new type of young laboratory Professional used basically new methods of work and mind. Machine learning, part of precision medicine, necessary namely for oncology and prediction of patients state crettemeans also lot of new types of ethical problems. These ethical questions and problems should be soluted immediately, parallel with introduction of machine learning to laboratory practice.
Práce s big daty vyžaduje použití prostředků umělé inteligence. Přináší to možnost transformace laboratorních výsledků do formy strojového učení-machine learning (ML). Od něho se očekává aktivace dat, přinášející zlepšení diagnostických možností laboratorních vyšetření. Jde o posuv od použití počítačů, sloužících z části jako skladiště mrtvých dat, k aktivnějšímu využití jejich potenciálu pro diagnostiku, management, edukaci, výzkum a další. Zejména pak k predikci stavu chorob a k precizní medicíně v onkologii i jinde. Důsledkem by měl být integrovaný mezioborový přístup k diagnostice a reálné dosažení efektivní personalizace při diagnostice a terapii pacientů. Sdělení je pokusem o pomoc při zavádění práce s big daty a umělou inteligencí v klinických laboratořích. Vychází z faktu obrovské akcelerace tohoto přístupu, zdaleka nejen pouze v laboratorní medicíně.
Working the big data needs using of artificial intelligence tools. This approach introduced currently into practice by large velocity leads to machine learning. Machine learning should be a strong way namely for the prediction of patient's state, for precision medicine in oncology and many more cases. For example for aiming the real personalisation of patients in dese of their diagnosis and therapy. This work can be a helpful tool for the introduction of artificial intelligence in routine clinical laboratories.
Supervised machine learning (ML) is used extensively in biology and deserves closer scrutiny. The Data Optimization Model Evaluation (DOME) recommendations aim to enhance the validation and reproducibility of ML research by establishing standards for key aspects such as data handling and processing, optimization, evaluation, and model interpretability. The recommendations help to ensure that key details are reported transparently by providing a structured set of questions. Here, we introduce the DOME registry (URL: registry.dome-ml.org), a database that allows scientists to manage and access comprehensive DOME-related information on published ML studies. The registry uses external resources like ORCID, APICURON, and the Data Stewardship Wizard to streamline the annotation process and ensure comprehensive documentation. By assigning unique identifiers and DOME scores to publications, the registry fosters a standardized evaluation of ML methods. Future plans include continuing to grow the registry through community curation, improving the DOME score definition and encouraging publishers to adopt DOME standards, and promoting transparency and reproducibility of ML in the life sciences.
- MeSH
- databáze faktografické MeSH
- lidé MeSH
- registrace * MeSH
- reprodukovatelnost výsledků MeSH
- řízené strojové učení * MeSH
- Check Tag
- lidé MeSH
- Publikační typ
- časopisecké články MeSH
Fragmented QRS (fQRS) is an electrocardiographic (ECG) marker of myocardial conduction abnormality, characterized by additional notches in the QRS complex. The presence of fQRS has been associated with an increased risk of all-cause mortality and arrhythmia in patients with cardiovascular disease. However, current binary visual analysis is prone to intra- and inter-observer variability and different definitions are problematic in clinical practice. Therefore, objective quantification of fQRS is needed and could further improve risk stratification of these patients. We present an automated method for fQRS detection and quantification. First, a novel robust QRS complex segmentation strategy is proposed, which combines multi-lead information and excludes abnormal heartbeats automatically. Afterwards extracted features, based on variational mode decomposition (VMD), phase-rectified signal averaging (PRSA) and the number of baseline-crossings of the ECG, were used to train a machine learning classifier (Support Vector Machine) to discriminate fragmented from non-fragmented ECG-traces using multi-center data and combining different fQRS criteria used in clinical settings. The best model was trained on the combination of two independent previously annotated datasets and, compared to these visual fQRS annotations, achieved Kappa scores of 0.68 and 0.44, respectively. We also show that the algorithm might be used in both regular sinus rhythm and irregular beats during atrial fibrillation. These results demonstrate that the proposed approach could be relevant for clinical practice by objectively assessing and quantifying fQRS. The study sets the path for further clinical application of the developed automated fQRS algorithm.
- MeSH
- algoritmy MeSH
- elektrokardiografie * metody MeSH
- fibrilace síní * diagnóza MeSH
- lidé MeSH
- strojové učení MeSH
- support vector machine MeSH
- Check Tag
- lidé MeSH
- Publikační typ
- časopisecké články MeSH
- práce podpořená grantem MeSH
Článek je věnován použití metod strojového učení vyvintitých v průběhu posledních patnácti let v rámci umělé inteligence pro podporu lékařské diagnostiky. Úvodem jsou vysvětleny principy strojového učení z klasifikovaných příkladů. Pozornost je především věnována počítačovému programu [2,4,3], který je uživatelsky příjemnou implementací algoritmu Intelligent Dichotomizer ID3 [10,11]. Navazující části prověřují možnost využít popsaný postup pro zpracování a vyhodnocení EEG, přesněfi kmenových sluchových evokovaných potenciálů (BAEP). Výsledným programem navržený rozhodovací strom je schopen identifikovat pacienty s nálezem lišícím se od normálu s přesností mírně nad 90%.
Decision making on the treatment of vestibular schwannoma (VS) is mainly based on the symptoms, tumor size, patient's preference, and experience of the medical team. Here we provide objective tools to support the decision process by answering two questions: can a single checkup predict the need of active treatment?, and which attributes of VS development are important in decision making on active treatment? Using a machine-learning analysis of medical records of 93 patients, the objectives were addressed using two classification tasks: a time-independent case-based reasoning (CBR), where each medical record was treated as independent, and a personalized dynamic analysis (PDA), during which we analyzed the individual development of each patient's state in time. Using the CBR method we found that Koos classification of tumor size, speech reception threshold, and pure tone audiometry, collectively predict the need for active treatment with approximately 90% accuracy; in the PDA task, only the increase of Koos classification and VS size were sufficient. Our results indicate that VS treatment may be reliably predicted using only a small set of basic parameters, even without the knowledge of individual development, which may help to simplify VS treatment strategies, reduce the number of examinations, and increase cause effectiveness.
- MeSH
- dospělí MeSH
- klinické rozhodování * MeSH
- lidé středního věku MeSH
- lidé MeSH
- management nemoci * MeSH
- reprodukovatelnost výsledků MeSH
- řízené strojové učení MeSH
- ROC křivka MeSH
- rozhodovací stromy MeSH
- senioři MeSH
- sluch MeSH
- sluchové testy MeSH
- strojové učení * MeSH
- určení symptomu MeSH
- vestibulární schwannom diagnóza terapie MeSH
- Check Tag
- dospělí MeSH
- lidé středního věku MeSH
- lidé MeSH
- mužské pohlaví MeSH
- senioři MeSH
- ženské pohlaví MeSH
- Publikační typ
- časopisecké články MeSH
- práce podpořená grantem MeSH
BACKGROUND: Untargeted tandem mass spectrometry serves as a scalable solution for the organization of small molecules. One of the most prevalent techniques for analyzing the acquired tandem mass spectrometry data (MS/MS) - called molecular networking - organizes and visualizes putatively structurally related compounds. However, a key bottleneck of this approach is the comparison of MS/MS spectra used to identify nearby structural neighbors. Machine learning (ML) approaches have emerged as a promising technique to predict structural similarity from MS/MS that may surpass the current state-of-the-art algorithmic methods. However, the comparison between these different ML methods remains a challenge because there is a lack of standardization to benchmark, evaluate, and compare MS/MS similarity methods, and there are no methods that address data leakage between training and test data in order to analyze model generalizability. RESULT: In this work, we present the creation of a new evaluation methodology using a train/test split that allows for the evaluation of machine learning models at varying degrees of structural similarity between training and test sets. We also introduce a training and evaluation framework that measures prediction accuracy on domain-inspired annotation and retrieval metrics designed to mirror real-world applications. We further show how two alternative training methods that leverage MS specific insights (e.g., similar instrumentation, collision energy, adduct) affect method performance and demonstrate the orthogonality of the proposed metrics. We especially highlight the role that collision energy plays in prediction errors. Finally, we release a continually updated version of our dataset online along with our data cleaning and splitting pipelines for community use. CONCLUSION: It is our hope that this benchmark will serve as the basis of development for future machine learning approaches in MS/MS similarity and facilitate comparison between models. We anticipate that the introduced set of evaluation metrics allows for a better reflection of practical performance.
- MeSH
- algoritmy MeSH
- strojové učení * MeSH
- tandemová hmotnostní spektrometrie * metody MeSH
- Publikační typ
- časopisecké články MeSH
S postupující digitalizací patologie se do popředí zájmu dostávají i aplikace metod strojového učení a umělé inteligence. Výzkum a vývoj v této oblasti je velmi rychlý, ale aplikace učících systémů v klinické praxi stále zaostávají. Cílem tohoto textu je přiblížit proces tvorby a nasazení učících systémů v digitální patologii. Začneme popisem základních vlastností dat produkovaných v rámci digitální patologie. Konkrétně pojednáme o skenerech a skenování vzorků, o ukládání a přenosu dat, o kontrole jejich kvality a přípravě pro zpracování pomocí učících systémů, zejména o anotacích. Naším cílem je prezentovat aktuální přístupy k řešení technických problémů a zároveň upozornit na úskalí, na která lze narazit při zpracování dat z digitální patologie. V první části také naznačíme, jak vypadají aktuální softwarová řešení pro prohlížení naskenovaných vzorků a implementace diagnostických postupů zahrnujících učící systémy. Ve druhé části textu popíšeme obvyklé úlohy digitální patologie a naznačíme obvyklé přístupy k jejich řešení. V této části zejména vysvětlíme, jak je nutné modifikovat standardní metody strojového učení pro zpracování velkých skenů a pojednáme o konkrétních aplikacích v diagnostice. Na závěr textu poskytneme rychlý náhled dalšího možného vývoje učících systémů v digitální patologii. Zejména ilustrujeme podstatu přechodu na velké základní modely a naznačíme problematiku virtuálního barvení vzorků. Doufáme, že tento text přispěje k lepší orientaci v rapidně se vyvíjející oblasti strojového učení v digitální patologii a tím přispěje k rychlejší adopci učících metod v této oblasti.
With the advancing digitalization of pathology, the application of machine learning and artificial intelligence methods is becoming increasingly important. Research and development in this field are progressing rapidly, but the clinical implementation of learning systems still lags behind. The aim of this text is to provide an overview of the process of developing and deploying learning systems in digital pathology. We begin by describing the fundamental characteristics of data produced in digital pathology. Specifically, we discuss scanners and sample scanning, data storage and transmission, quality control, and preparation for processing by learning systems, with a particular focus on annotations. Our goal is to present current approaches to addressing technical challenges while also highlighting potential pitfalls in processing digital pathology data. In the first part of the text, we also outline existing software solutions for viewing scanned samples and implementing diagnostic procedures that incorporate learning systems. In the second part of the text, we describe common tasks in digital pathology and outline typical approaches to solving them. Here, we explain the necessary modifications to standard machine learning methods for processing large scans and discuss specific diagnostic applications. Finally, we provide a brief overview of the potential future development of learning systems in digital pathology. We illustrate the transition to large foundational models and introduce the topic of virtual staining of samples. We hope that this text will contribute to a better understanding of the rapidly evolving field of machine learning in digital pathology and, in turn, facilitate the faster adoption of learning-based methods in this domain.