Πρόγραμμα
Καθώς τα μοντέλα παραγωγικής τεχνητής νοημοσύνης αντικαθιστούν σταδιακά τα παραδοσιακά αποτελέσματα αναζήτησης — τους γνωστούς μπλε συνδέσμους που εμφανίζονται με σειρά προτεραιότητας — και προβάλλονται ως πρώτο αποτέλεσμα κάθε αναζήτησης πληροφορίας στο διαδίκτυο, είναι απαραίτητο να αναρωτηθούμε πώς αποφασίζουν ποιες πληροφορίες είναι αληθείς, όταν παράγουν απαντήσεις. Μέχρι τώρα, οι συζητήσεις έχουν επικεντρωθεί κυρίως στις οικονομικές επιπτώσεις που έχει αυτή η αλλαγή για τα μέσα ενημέρωσης, ωστόσο ελάχιστη προσοχή έχει δοθεί στους κινδύνους που εγκυμονεί το εσφαλμένο ή παραπλανητικό περιεχόμενο με στόχο τη χειραγώγηση που παράγεται από την τεχνητή νοημοσύνη, ιδίως όταν πρόκειται για ευαίσθητα ζητήματα, όπως η υγεία.
Οι ψευδείς πληροφορίες που επικυρώνονται από την τεχνητή νοημοσύνη συχνά προκύπτουν από αδιαφανείς διαδικασίες εκπαίδευσης μοντέλων ΤΝ ή από επιλογές σχεδιασμού. Προτιμούν τα μοντέλα τις κυρίαρχες απόψεις; Δίνεται προτεραιότητα σε συγκεκριμένες πηγές; Πώς επικοινωνείται η αβεβαιότητα; Και με ποιον τρόπο επηρεάζουν αυτές οι αποφάσεις την ορατότητα εναλλακτικών ή μειονοτικών φωνών;
Καθώς η ποιοτική πληροφορία – από επιστημονικά περιοδικά έως δημοσιογραφικά μέσα – καθίσταται σταδιακά αποκλειστικά προσβάσιμη μέσω συνδρομών (paywalls) και δεν είναι διαθέσιμη για αυτοματοποιημένη συλλογή (scraping) από τις μεγάλες εταιρείες τεχνητής νοημοσύνης (και δικαιολογημένα), φορείς παραπληροφόρησης στοχεύουν τα μεγάλα γλωσσικά μοντέλα, «ταΐζοντάς» τα με μαζικό και βελτιστοποιημένο περιεχόμενο που κυκλοφορεί ελεύθερα στο διαδίκτυο.
Η κεντρική ομιλία θα εστιάσει στις λύσεις που μπορούν να αντιμετωπίσουν αυτό το κρίσιμο πρόβλημα, μέσα από έναν ηθικό σχεδιασμό, την εκπαίδευση των μοντέλων με αξιόπιστα δεδομένα και τη συνεχή ανθρώπινη εποπτεία.