Μεγάλης κλίμακας εξόρυξη γνώσης με παράλληλα και κατανεμημένα νευρωνικά σχήματα μηχανικής μάθησης

Περίληψη

Η διατριβή εστιάζει σε τέσσερις τομείς: παράλληλη μάθηση νευρωνικών δικτύων, κατανεμημένη μάθηση επιτροπών νευρωνικών δικτύων, ιεραρχική και τοπική μάθηση νευρωνικών δικτύων. Στο κεφ. 3 δείχνουμε ότι για την κλιμακούμενη εκπαίδευσή των Extreme Learning Machines (ELM), η δημιουργία πολλών μοντέλων και η επιλογή του καταλληλότερου μοντέλου αντιμετωπίζονται ως μία φάση, την οποία μπορούμε έτσι να επιταχύνουμε μέσω γνωστών μεθόδων παραγοντοποιήσεων πινάκων όπως Cholesky, SVD, QR και Eigen Value decomposition. Στο κεφ. 4 προτείνουμε το parallel Enhanced Convex Incremental Extreme Learning Machine (ECI-ELM) που συνδυάζει τα δύο γνωστά Enhanced I-ELM και Convex I-ELM και έτσι λειτουργεί καλύτερο από αυτά ως προς την ακρίβεια και προσφέρει επιταχύνσεις στην αρχιτεκτονική master-worker πολύ κοντά στην γραμμική επιτάχυνση. Παράλληλοι αλγόριθμοι για Probabilistic Neural Network (PNN) διερευνώνται στο κεφ. 5 στο πλαίσιο παράλληλης σωληνωτής επεξεργασίας σε δακτύλιο, όπου απεικονίζεται το σχήμα εκπ ...
περισσότερα

Περίληψη σε άλλη γλώσσα

The thesis focuses on four important factors: parallel learning, distributed learning, hierarchical learning and local learning. Parallelizable algorithms for regression with Extreme Learning Machines (ELM) are investigated in chapters 3 and 4. We speedup the computations for model construction and model selection phase by employing Cholesky, SVD, QR and Eigen decompositions. In chapter 4 we propose the Parallel Enhanced and Convex Incremental Extreme Learning Machine (ECI-ELM) which combines two popular existing incremental versions of ELM, namely the Enhanced I-ELM with the Convex I-ELM, and thus it outperforms them in accuracy, and reveals parallel speedups very close to ideal. Parallel Probabilistic Neural Network (PNN) classifiers are investigated in chapter 5 in a Ring pipeline parallel scheme, where we map the proposed leave-one-out kernel averaged gradient descent algorithm together with Subtractive Clustering and Expectation Maximization. The PNN model is created automatically ...
περισσότερα

Όλα τα τεκμήρια στο ΕΑΔΔ προστατεύονται από πνευματικά δικαιώματα.

DOI
10.12681/eadd/44004
Διεύθυνση Handle
http://hdl.handle.net/10442/hedi/44004
ND
44004
Εναλλακτικός τίτλος
Large scale data mining via parallel and distributed neural networks and machine learning schemes
Συγγραφέας
Κόκκινος, Γιάννης (Πατρώνυμο: Γεώργιος)
Ημερομηνία
2016
Ίδρυμα
Πανεπιστήμιο Μακεδονίας. Σχολή Επιστημών Πληροφορίας. Τμήμα Εφαρμοσμένης Πληροφορικής
Εξεταστική επιτροπή
Μαργαρίτης Κωνσταντίνος
Σαμαράς Νικόλαος
Ρεφανίδης Ιωάννης
Ευαγγελίδης Γεώργιος
Μανωλόπουλος Ιωάννης
Διαμαντάρας Κωνσταντίνος
Ηλιάδης Λάζαρος
Επιστημονικό πεδίο
Φυσικές Επιστήμες
Επιστήμη Ηλεκτρονικών Υπολογιστών και Πληροφορική
Επιστήμες Μηχανικού και Τεχνολογία
Επιστήμη Ηλεκτρολόγου Μηχανικού, Ηλεκτρονικού Μηχανικού, Μηχανικού Η/Υ
Λέξεις-κλειδιά
Τεχνητά νευρωνικά δίκτυα; Υπολογισμοί μεγάλη κλίμακας; Εξόρυξη γνώσης; Κατηγοριοποίηση; Παλινδρόμηση; Συσταδοποίηση; Παράλληλη μάθηση; Κατανεμημένη μάθηση; Σύνολα και επιτροπές νευρωνικών δικτύων; Ιεραρχικά νευρωνικά δίκτυα; Τοπική μάθηση
Χώρα
Ελλάδα
Γλώσσα
Αγγλικά
Άλλα στοιχεία
257 σ., πιν., σχημ., γραφ.
Στατιστικά χρήσης
ΠΡΟΒΟΛΕΣ
Αφορά στις μοναδικές επισκέψεις της διδακτορικής διατριβής για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΞΕΦΥΛΛΙΣΜΑΤΑ
Αφορά στο άνοιγμα του online αναγνώστη για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΜΕΤΑΦΟΡΤΩΣΕΙΣ
Αφορά στο σύνολο των μεταφορτώσων του αρχείου της διδακτορικής διατριβής.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
ΧΡΗΣΤΕΣ
Αφορά στους συνδεδεμένους στο σύστημα χρήστες οι οποίοι έχουν αλληλεπιδράσει με τη διδακτορική διατριβή. Ως επί το πλείστον, αφορά τις μεταφορτώσεις.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
Σχετικές εγγραφές (με βάση τις επισκέψεις των χρηστών)