Προηγμένες μέθοδοι ερμηνεύσιμης τεχνητής νοημοσύνης βασισμένες σε ασαφή γνωστικά δίκτυα

Περίληψη

Καθώς τα συστήματα τεχνητής νοημοσύνης (ΤΝ) διεισδύουν ολοένα και περισσότερο σε κρίσιμους τομείς, όπως η υγεία, η βιομηχανία και τα χρηματοοικονομικά, καθίσταται επιτακτική η ανάγκη για διαφάνεια, ερμηνευσιμότητα και αξιοπιστία. Ωστόσο, παρότι τα σύγχρονα μοντέλα μηχανικής και βαθιάς μάθησης επιτυγχάνουν εντυπωσιακές επιδόσεις πρόβλεψης, η λειτουργία τους ως «μαύρα κουτιά» δημιουργεί σοβαρά εμπόδια στην κατανόηση της συλλογιστικής τους, στην ανθρώπινη εποπτεία και στην απόδοση ευθύνης. Το πρόβλημα αυτό έχει αναδείξει την Ερμηνεύσιμη Τεχνητή Νοημοσύνη (eXplainable AI - XAI) ως ένα ταχέως αναπτυσσόμενο ερευνητικό πεδίο, με στόχο την ανάπτυξη μεθόδων που καθιστούν τις αποφάσεις των μοντέλων κατανοητές και επαληθεύσιμες από τον άνθρωπο. Παρά τη σημαντική πρόοδο στον τομέα της XAI, οι υφιστάμενες προσεγγίσεις, ιδίως οι οι «εκ των υστέρων» (post-hoc) τεχνικές, συχνά αντιμετωπίζουν προβλήματα πιστότητας, ασυνέπειας και ευαλωτότητας σε χειραγώγηση, υπονομεύοντας έτσι την αξιοπιστία των παραγό ...
περισσότερα

Περίληψη σε άλλη γλώσσα

As Artificial Intelligence (AI) systems become increasingly integrated into high-stakes domains such as healthcare, industrial automation, and finance, the demand for transparency, interpretability, and trustworthiness has become paramount. While modern machine learning (ML) and deep learning (DL) models offer exceptional predictive capabilities, their opaque, black-box nature poses significant challenges for human understanding, auditing, and accountability. This has led to a surge of interest in eXplainable Artificial Intelligence (XAI), a research field devoted to creating methods that elucidate the reasoning behind AI-based decisions in a human-comprehensible manner. Despite considerable progress in this regard, existing XAI approaches, particularly post-hoc ones, often suffer from issues of fidelity, inconsistency, and vulnerability to manipulation, which casts doubt on the reliability of the provided explanations. More fundamentally, both interpretable and black-box models typica ...
περισσότερα
Η διατριβή είναι δεσμευμένη από τον συγγραφέα  (μέχρι και: 7/2026)
Διεύθυνση Handle
http://hdl.handle.net/10442/hedi/59828
ND
59828
Εναλλακτικός τίτλος
Advanced methods for explainable artificial intelligence based on fuzzy cognitive maps
Συγγραφέας
Τυροβολάς, Μάριος (Πατρώνυμο: Χρήστος)
Ημερομηνία
2025
Ίδρυμα
Πανεπιστήμιο Ιωαννίνων. Σχολή Πληροφορικής και Τηλεπικοινωνιών. Τμήμα Πληροφορικής και Τηλεπικοινωνιών
Εξεταστική επιτροπή
Στύλιος Χρυσόστομος
Καλογεράς Αθανάσιος
Κουλαμάς Χρήστος
Γεωργοπούλου Σταυρούλα
Μπούταλης Ιωάννης
Τσούλος Ιωάννης
Χατζηδούκας Παναγιώτης
Επιστημονικό πεδίο
Επιστήμες Μηχανικού και ΤεχνολογίαΕπιστήμη Ηλεκτρολόγου Μηχανικού, Ηλεκτρονικού Μηχανικού, Μηχανικού Η/Υ ➨ Υπολογιστές, Υλικό (hardware) και Αρχιτεκτονική
Λέξεις-κλειδιά
Ερμηνεύσιμη τεχνητή νοημοσύνη; Ασαφή γνωστικά δίκτυα; Αιτιώδης ερμηνεύσιμη τεχνητή νοημοσύνη; Αναδρομικά νευρωνικά δίκτυα; Συτήματα βασισμένα στη γνώση; Ροή πληροφορίας; Ανάλυση αιτιακής επίδρασης; Επεξηγήσεις μέσω Αντιπαραδειγμάτων; Βιομηχανία 4.0
Χώρα
Ελλάδα
Γλώσσα
Αγγλικά
Άλλα στοιχεία
εικ., πιν., σχημ., γραφ.
Στατιστικά χρήσης
ΠΡΟΒΟΛΕΣ
Αφορά στις μοναδικές επισκέψεις της διδακτορικής διατριβής για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΞΕΦΥΛΛΙΣΜΑΤΑ
Αφορά στο άνοιγμα του online αναγνώστη για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΜΕΤΑΦΟΡΤΩΣΕΙΣ
Αφορά στο σύνολο των μεταφορτώσων του αρχείου της διδακτορικής διατριβής.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
ΧΡΗΣΤΕΣ
Αφορά στους συνδεδεμένους στο σύστημα χρήστες οι οποίοι έχουν αλληλεπιδράσει με τη διδακτορική διατριβή. Ως επί το πλείστον, αφορά τις μεταφορτώσεις.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.