ChatGPT: Πέντε Πράγματα που Δεν Πρέπει Ποτέ να Λες στο AI

Η τεχνητή νοημοσύνη και ιδιαίτερα το ChatGPT έχουν πλέον εισχωρήσει σε κάθε πτυχή της καθημερινότητάς μας. Με πάνω από ένα δισεκατομμύριο ερωτήματα να υποβάλλονται καθημερινά από περισσότερους από 100 εκατομμύρια χρήστες, το chatbot αυτό έχει γίνει αναπόσπαστο εργαλείο στην εργασία, την επικοινωνία και τη μάθηση. Ωστόσο, σύμφωνα με ειδικούς, αποτελεί και μια επικίνδυνη “μαύρη τρύπα ιδιωτικότητας”.

Η ίδια η δημιουργός εταιρεία, η OpenAI, δηλώνει ανοιχτά ότι τα δεδομένα που εισάγονται ενδέχεται να μην είναι ασφαλή. Μπορούν να χρησιμοποιηθούν για την περαιτέρω εκπαίδευση των μοντέλων, να ανασκοπηθούν από ανθρώπους για λόγους συμμόρφωσης και –σε σπάνιες περιπτώσεις– να εμφανιστούν ακόμη και σε απαντήσεις προς άλλους χρήστες.

Με απλά λόγια: οτιδήποτε πληκτρολογείται στο ChatGPT πρέπει να θεωρείται δημόσιο. Ακολουθούν πέντε κατηγορίες πληροφοριών που δεν πρέπει ποτέ να αποκαλύψετε:

1. Παράνομες ή Ανήθικες Ερωτήσεις

Μπορεί το bot να έχει φραγμούς και φίλτρα, αλλά το να ζητά κανείς οδηγίες για απάτες, εγκλήματα ή επιβλαβείς ενέργειες είναι εξαιρετικά επικίνδυνο – και σε πολλές περιπτώσεις, μπορεί να έχει νομικές συνέπειες. Ανάλογα με τη χώρα, τέτοια αιτήματα μπορεί να οδηγήσουν ακόμα και σε αναφορά στις αρχές.

2. Κωδικοί Πρόσβασης και Στοιχεία Λογαριασμών

Το να ζητά κανείς από ένα bot να συνδεθεί σε λογαριασμούς απαιτώντας να του δοθούν usernames και passwords είναι ένα τεράστιο ρίσκο. Έχουν καταγραφεί περιστατικά όπου προσωπικά δεδομένα χρηστών εμφανίστηκαν κατά λάθος σε απαντήσεις προς άλλους. Μην εμπιστεύεστε ποτέ τα στοιχεία σύνδεσης σας σε ένα δημόσιο chatbot.

3. Οικονομικές Πληροφορίες

Αριθμοί τραπεζικών λογαριασμών, πιστωτικών καρτών ή άλλες ευαίσθητες οικονομικές πληροφορίες δεν έχουν καμία θέση σε ένα εργαλείο τεχνητής νοημοσύνης όπως το ChatGPT. Δεν υπάρχει κρυπτογράφηση, δεν υπάρχει εγγύηση διαγραφής των δεδομένων – και το ρίσκο για απάτες και υποκλοπή ταυτότητας είναι τεράστιο.

4. Εμπιστευτικές Πληροφορίες Εργασίας ή Προσωπικού Χαρακτήρα

Εργαζόμενοι που μεταφέρουν εσωτερικά έγγραφα, συμβόλαια, στρατηγικά σχέδια ή άλλες πληροφορίες εταιρειών στο bot, διατρέχουν τον κίνδυνο να παραβιάσουν συμφωνίες εμπιστευτικότητας και να προκαλέσουν σοβαρές νομικές ή επαγγελματικές συνέπειες. Το ίδιο ισχύει για δικηγόρους, γιατρούς, λογιστές ή άλλους επαγγελματίες που φέρουν ευθύνη για δεδομένα τρίτων.

5. Ιατρικά Δεδομένα

Η χρήση του ChatGPT για συμβουλές υγείας μπορεί να φαίνεται αθώα, αλλά κάθε πληκτρολόγηση –όπως συμπτώματα, διαγνώσεις ή προσωπικά ιατρικά δεδομένα– μπορεί να αποθηκευτεί, να αναλυθεί ή και να εμφανιστεί σε άλλες συνεδρίες. Για επαγγελματίες υγείας, κάτι τέτοιο συνιστά σοβαρή παραβίαση της εμπιστευτικότητας.

Συμπέρασμα

Το ChatGPT είναι ένα ισχυρό εργαλείο, αλλά δεν είναι ούτε γιατρός, ούτε τραπεζίτης, ούτε δικηγόρος. Πριν μοιραστείτε οτιδήποτε, σκεφτείτε: “Θα το έλεγα αυτό δημόσια;” Αν η απάντηση είναι «όχι», τότε καλύτερα να το κρατήσετε εκτός συνομιλίας. Η ασφάλεια των προσωπικών δεδομένων μας ξεκινά από εμάς τους ίδιους.

Σχετικά άρθρα

Discover more from Greeco

Subscribe now to keep reading and get access to the full archive.

Continue reading