DGN-TBMF : RÉSEAU À DOUBLE GÉNÉRATEUR BASÉ SUR LA FUSION MODALE TRI-CERVEAU POUR UN DIAGNOSTIC PRÉCIS DES MALADIES CÉRÉBRALES
DOI :
https://doi.org/10.59277/RRST-EE.2025.2.22Mots-clés :
Maladie cérébrale, Fusion d'images, Trimodales, Apprentissage profond, Règles de fusion, Transformée de Shearlet discrèteRésumé
Les techniques de fusion d'images médicales sont fréquemment utilisées dans diverses applications. Cette technologie permet aux spécialistes d'accéder à des images intégrant des données anatomiques et physiologiques. Elle a été utilisée dans de nombreux contextes cliniques pour fusionner des images cérébrales médicales afin de diagnostiquer des maladies cérébrales. Plusieurs méthodes ont été proposées pour fusionner des images cérébrales médicales, mais ces modèles doivent être améliorés en termes d'efficacité. Ce travail utilise un nouveau cadre de fusion modale tri-cérébrale basée sur un réseau à double générateur (DGN-TBMF) pour prédire avec précision les maladies cérébrales à l'aide d'images trimodales, notamment l'IRM, la TDM et la TEP. Dans un premier temps, les images IRM et TDM collectées sont prétraitées à l'aide d'un filtre bilatéral adaptatif basé sur la plage évolutive (SCRAB) afin de réduire les artefacts de bruit. Les images TEP sont divisées en composantes haute et basse fréquence par la transformée de shearlet discrète (DST). L'approche DGN-TBMF proposée comprend deux générateurs et un module de détection. Le premier générateur est constitué de couches convolutionnelles dilatées permettant d'extraire les densités de matière grise et l'épaisseur corticale pertinentes des images IRM et TDM. De même, le second générateur extrait les intensités de voxels pertinentes des images TEP. La fusion des images est réalisée selon quatre règles de fusion, et ces images sont utilisées comme données d'entrée pour le détecteur basé sur l'apprentissage profond afin de détecter avec précision les anomalies cérébrales. D'après les résultats expérimentaux, le réseau DGN-TBMF proposé a été performant dans les analyses quantitatives et qualitatives, produisant des valeurs respectives. La précision atteinte par le réseau DGN-TBMF proposé est de 99,25 % pour l'ensemble de données 1 et de 99,04 % pour l'ensemble de données 2.
Références
(1) W. Yin, L. Li, F.X. Wu, Deep learning for brain disorder diagnosis based on fMRI images, Neurocomputing, 469, pp. 332–345 (2022).
(2) M. Hu, Y. Zhong, S. Xie, H. Lv, Z. Lv, Fuzzy system-based medical image processing for brain disease prediction, Front. Neurosci., 15, 714318 (2021).
(3) X. Liang, P. Hu, L. Zhang, J. Sun, G. Yin, MCFNet: Multi-layer concatenation fusion network for medical images fusion, IEEE Sens. J., 19, 16, pp. 7107–7119 (2019).
(4) Y. Liu, X. Chen, J. Cheng, H. Peng, A medical image fusion method based on convolutional neural networks, 20th International Conference on Information Fusion (Fusion), pp. 1–7 (2017).
(5) M. Talo, O. Yildirim, U.B. Baloglu, G. Aydin, U.R. Acharya, Convolutional neural networks for multi-class brain disease detection using MRI images, Comput. Med. Imaging Graphics, 78, 101673 (2019).
(6) H. Hermessi, O. Mourali, E. Zagrouba, Convolutional neural network-based multimodal image fusion via similarity learning in the Shearlet domain, Neural Comput. Appl., 30, 7, pp. 2029–2045 (2018).
(7) J. Du, W. Li, K. Lu, B. Xiao, An overview of multi-modal medical image fusion, Neurocomputing, 215, pp. 3–20 (2016).
(8) R. Hou, D. Zhou, R. Nie, D. Liu, X. Ruan, Brain CT and MRI medical image fusion using convolutional neural networks and a dual-channel spiking cortical model, Med. Biol. Eng. Comput., 57, 4, pp. 887–900 (2019).
(9) Z. Ding, D. Zhou, R. Nie, R. Hou, Y. Liu, Brain medical image fusion based on dual-branch CNNs in NSST domain, BioMed Research Int., (2020).
(10) R. Sundarasekar, A. Appathurai, Efficient brain tumor detection and classification using magnetic resonance imaging, Biomedical Physics & Engineering Express, 7, 5, 055007 (2021).
(11) S. Shanthi, S. Saradha, J.A. Smitha, N. Prasath, H. Anandakumar, An efficient automatic brain tumor classification using optimized hybrid deep neural network, International Journal of Intelligent Networks, 3, pp.188–196 (2022).
(12) H. Gupta, P. Kumar, S. Saurabh, S.K. Mishra, B. Appasani, A. Pati, C. Ravariu, A. Srinivasulu, Category boosting machine learning algorithm for breast cancer prediction, Revue Roumaine des Sciences Techniques – Serie Electrotechnique et Energetique 66, 3, pp. 201–206 (2021).
(13) B. Bouchiba, I.K. Bousserhane, M.K. Fellah, A. Hazzab, Artificial neural network sliding mode control for multi-machine web winding system, Revue Roumaine des Sciences Techniques-Serie Electrotechnique et Energetique, 62, 1, pp. 109–113 (2017).
(14) R. Sundarasekar, A. Appathurai, Efficient brain tumor detection and classification using magnetic resonance imaging. Biomed. Phys. Eng. Express, 7, 5, 055007 (2021).
(15) Y. Li, J. Zhao, Z. Lv, J. Li, Medical image fusion method by deep learning. Int. J. Cognit. Comput. Eng, 2, 21–29 (2021).
(16) N. Alseelawi, H.T. Hazim, H.T. Salim Al Rikabi, A novel method of multimodal medical image fusion based on hybrid approach of NSCT and DTCWT, International Journal of Online & Biomedical Engineering, 18, 3 (2022).
(17) M. Kaur, D. Singh, Multi-modality medical image fusion technique using multi-objective differential evolution based deep neural networks, J. Ambient Intell. Hum. Comput ., 12, 2, pp. 2483–2493 (2021).
(18) Z. Wang, X. Li, H. Duan, Y. Su, X. Zhang, X. Guan, Medical image fusion based on convolutional neural networks and non-subsampled contourlet transform, Expert Syst. Appl., 171, 114574 (2021).
(19) P. H. Dinh, A novel approach based on three-scale image decomposition and marine predators’ algorithm for multi-modal medical image fusion, Biomed. Signal Process. Control, 67, 102536 (2021).
(20) Y. Zhang, Y. Liu, P. Sun, H. Yan, X. Zhao, L. Zhang, IFCNN: A general image fusion framework based on convolutional neural network. Inf. Fusion, 54, pp. 99–118 (2020).
(21) W. Tan, P. Tiwari, H.M. Pandey, C. Moreira, A.K. Jaiswal, Multimodal medical image fusion algorithm in the era of big data, Neural Comput. Appl., pp. 1–21 (2020).
(22) K. Wang, M. Zheng, H. Wei, G. Qi, Y. Li, Multi-modality medical image fusion using convolutional neural network and contrast pyramid, Sensors, 20, 8, 2169 (2020)
(23) K. J. Xia, H. S. Yin, J. Q. Wang, A novel improved deep convolutional neural network model for medical image fusion, Cluster Computing, 22, 1, pp.1515–1527 (2019).
(24) B. Rajalingam, R. Priya, Multimodal medical image fusion based on deep learning neural network for clinical treatment analysis, International Journal of Chemtech Research, 11, 06, pp. 160–176 (2018).
(25) X. Xu, D. Shan, G. Wang, X. Jiang, Multimodal medical image fusion using PCNN optimized by the QPSO algorithm, Applied Soft Computing, 46, pp. 588–595 (2016).
(26) A. K. Bhandari, K. Rahul, A novel local contrast fusion-based fuzzy model for color image multilevel thresholding using grasshopper optimization, Appl. Soft Comput. 81, 105515 (2019).
(27) S. Karthick, N. Muthukumaran, Deep regression network for single-image super-resolution based on down- and upsampling with RCA blocks, National Academy Science Letters, pp. 1-5 (2023).
(28) S. Karthick, N. Muthukumaran, Deep regression network for the single image super-resolution of multimedia text image, IEEE 5th International Conference on Cybernetics, Cognition and Machine Learning Applications (ICCCMLA), pp. 394-399 (2023).
(29) A. Jegatheesh, N. Kopperundevi, M. Anlin Sahaya Infant Tinu, Brain aneurysm detection via firefly optimized spiking neural network, International Journal of Current Bio-Medical Engineering, 01, 01, pp. 23–29 (2023).
Téléchargements
Publiée
Numéro
Rubrique
Licence
(c) Copyright REVUE ROUMAINE DES SCIENCES TECHNIQUES — SÉRIE ÉLECTROTECHNIQUE ET ÉNERGÉTIQUE 2025

Ce travail est disponible sous licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International.