Please use this identifier to cite or link to this item: http://artemis.cslab.ece.ntua.gr:8080/jspui/handle/123456789/13124
Title: Χρήση Βαθιών Νευρωνικών Δικτύων Και Πολλαπλοτήτων Για Την Εκπαίδευση Ακουστικού Μοντέλου Για Αυτόματη Αναγνώριση Φωνής
Authors: Ιωάννης Μ. Χαλκιαδάκης
Ποταμιάνος Αλέξανδρος
Keywords: βαθιά νευρωνικά δίκτυα
μηχανική μάθηση
μάθηση πολλαπλοτήτων
κοντινότεροι γείτονες
αυτόματη αναγνώριση φωνής
αυτόματη αναγνώριση φωνής συνεχούς λόγου και μεγάλου λεξιλογίου
ακουστικό μοντέλο
υβριδικό ακουστικό μοντέλο
Issue Date: 24-Jun-2016
Abstract: Ο στόχος της παρούσας μελέτης ήταν να μελετήσει αρχιτεκτονικές βαθιών νευρωνικών δικτύων οι οποίες έχουν λάβει τεράστια προσοχή κατά τη διάρκεια των τελευταίων ετών, λόγω της επιτυχίας τους σε εφαρμογές που ενδιαφέρουν την επιστημονική κοινότητα μηχανικής μάθησης.Το πεδίο εφαρμογής που επιλέξαμε ήταν η αυτόματη αναγνώριση φωνής, δεδομένου ότι οι περισσότερες ανακαλύψεις στα βαθιά νευρωνικά δίκτυα παρουσιάστηκαν για πρώτη φορά σε εφαρμογές αναγνώρισης φωνής. Επιπλέον, υιοθετήσαμε μια προσέγγιση με χρήση πολλαπλοτήτων για την βελτίωση του κριτηρίου εκπαίδευσης του δικτύου. Η ιδέα (Tomar και Rose, 2014) είναι ότι αν καταφέρουμε να διατηρήσουμε, μέσω του δικτύου, τις σχέσεις των δεδομένων εισόδου που επιβάλονται από τη δομή της πολλαπλότητας, θα μάθουμε μια πιο ακριβή και εύρωστη κατανομή των κλάσεων φωνημάτων που βρίσκονται στα δεδομένα εισόδου. Ο αλγόριθμος που θα διατηρήσει τις σχέσεις των δεδομένων εισόδου που επιβάλονται από τη δομή της πολλαπλότητας, χρησιμοποιεί τις κλάσεις φωνημάτων και τις αποστάσεις μεταξύ των χαρακτηριστικών της φωνής για να μάθει την υποκείμενη πολλαπλότητα. Στην εργασία παρουσιάζεται αναλυτικά η διαδικασία που ακολουθήσαμε για την κατασκευή του ακουστικού μοντέλου καθώς και πειραματικά αποτελέσματα.
URI: http://artemis-new.cslab.ece.ntua.gr:8080/jspui/handle/123456789/13124
Appears in Collections:Διπλωματικές Εργασίες - Theses

Files in This Item:
File SizeFormat 
DT2016-0104.pdf754.58 kBAdobe PDFView/Open


Items in Artemis are protected by copyright, with all rights reserved, unless otherwise indicated.