Η πλατφόρμα AI της Meta δεν είναι τελικά τόσο ασφαλής
secnews.gr
IT Security News, Gadgets, Tweaks for Geeks and More
Η πλατφόρμα AI της Meta δεν είναι τελικά τόσο ασφαλής
https://www.secnews.gr/654087/platforma-ai-meta-den-einai-telika-toso-asfalis/
Jul 16th 2025, 18:48
by Absenta Mia
Αν νομίζεις ότι μια πλατφόρμα τεχνητής νοημοσύνης είναι ασφαλής απλώς και μόνο επειδή υποστηρίζεται από μια πολυδισεκατομμυριούχα εταιρεία, ξανασκέψου το. Ένας ερευνητής που κατάφερε να εντοπίσει ένα σοβαρό κενό ασφαλείας στην AI πλατφόρμα της Meta ανταμείφθηκε με $10.000 από τον Zuckerberg και την ομάδα του.
Δείτε επίσης: Το ChatGPT δοκιμάζει την λειτουργία "Study Together"
Σύμφωνα με δημοσίευμα του TechCrunch, η Meta διόρθωσε πρόσφατα ένα κρίσιμο πρόβλημα ασφαλείας που επέτρεπε την αποκάλυψη ιδιωτικών ερωτημάτων και απαντήσεων του chatbot Meta AI σε άλλους χρήστες. Το πρόβλημα εντοπίστηκε από τον Sandeep Hodkasia, ιδρυτή της εταιρείας ελέγχου ασφάλειας AppSecure, ο οποίος το ανέφερε τον Δεκέμβριο του 2024. Ως ανταμοιβή για την αποκάλυψη της ευπάθειας, η Meta του προσέφερε $10.000 μέσω του προγράμματος bug bounty που διατηρεί.
Η εταιρεία επιβεβαίωσε ότι το σφάλμα έχει πλέον διορθωθεί και δήλωσε πως δεν υπάρχουν ενδείξεις κακόβουλης εκμετάλλευσής του. Ωστόσο, αυτό πρέπει να λειτουργήσει ως καμπανάκι για όποιον χρησιμοποιεί τεχνητή νοημοσύνη χωρίς δεύτερη σκέψη. Αυτό δεν σημαίνει ότι πρέπει να την αποφέυγετε εντελώς, αλλά σίγουρα πρέπει να τη χρησιμοποιείτε με προσοχή. Ένας και μόνος γραμμένος κώδικας μπορεί να κοστίσει ακριβά.
Δείτε ακόμα: Η OpenAI υπέγραψε σύμβαση με το Υπουργείο Άμυνας των ΗΠΑ
Ο Hodkasia ανακάλυψε το πρόβλημα ενώ εξέταζε πώς η Meta AI επιτρέπει σε συνδεδεμένους χρήστες να επεξεργάζονται προτροπές (prompts) ώστε να δημιουργούνται νέες απαντήσεις. Παρατήρησε ότι κάθε επεξεργασμένη προτροπή λάμβανε έναν μοναδικό αναγνωριστικό κωδικό από τα συστήματα της Meta. Αναλύοντας την κίνηση του δικτύου κατά τη διάρκεια αυτής της διαδικασίας, διαπίστωσε ότι τροποποιώντας το συγκεκριμένο αναγνωριστικό, μπορούσε να έχει πρόσβαση σε προτροπές και απαντήσεις άλλων χρηστών.
Η πλατφόρμα AI της Meta δεν είναι τελικά τόσο ασφαλής
Το πρόβλημα προερχόταν από την αποτυχία της Meta να επαληθεύσει αν ο χρήστης είχε την εξουσιοδότηση να δει την εκάστοτε προτροπή. Σύμφωνα με τον Hodkasia, τα αναγνωριστικά ήταν προβλέψιμα, κάτι που θα μπορούσε να επιτρέψει σε κακόβουλους χρήστες να αυτοματοποιήσουν τη διαδικασία και να συλλέξουν μαζικά ευαίσθητα δεδομένα.
Δείτε επίσης: Η τεχνητή νοημοσύνη της Anthropic αποκτά δικό της ιστολόγιο
Παρά τις μεγάλες επενδύσεις της εταιρείας στον τομέα της τεχνητής νοημοσύνης, η εφαρμογή Meta AI δεν έχει γνωρίσει ιδιαίτερη απήχηση, καθώς σύμφωνα με την εταιρεία ανάλυσης εφαρμογών Appfigures, έχει σημειώσει περίπου 6,5 εκατομμύρια λήψεις από την κυκλοφορία της στις 29 Απριλίου.
Πηγή: phonearena
You are receiving this email because you subscribed to this feed at https://blogtrottr.com
If you no longer wish to receive these emails, you can unsubscribe here:
https://blogtrottr.com/unsubscribe/nfz/3xfHTz
IT Security News, Gadgets, Tweaks for Geeks and More
Η πλατφόρμα AI της Meta δεν είναι τελικά τόσο ασφαλής
https://www.secnews.gr/654087/platforma-ai-meta-den-einai-telika-toso-asfalis/
Jul 16th 2025, 18:48
by Absenta Mia
Αν νομίζεις ότι μια πλατφόρμα τεχνητής νοημοσύνης είναι ασφαλής απλώς και μόνο επειδή υποστηρίζεται από μια πολυδισεκατομμυριούχα εταιρεία, ξανασκέψου το. Ένας ερευνητής που κατάφερε να εντοπίσει ένα σοβαρό κενό ασφαλείας στην AI πλατφόρμα της Meta ανταμείφθηκε με $10.000 από τον Zuckerberg και την ομάδα του.
Δείτε επίσης: Το ChatGPT δοκιμάζει την λειτουργία "Study Together"
Σύμφωνα με δημοσίευμα του TechCrunch, η Meta διόρθωσε πρόσφατα ένα κρίσιμο πρόβλημα ασφαλείας που επέτρεπε την αποκάλυψη ιδιωτικών ερωτημάτων και απαντήσεων του chatbot Meta AI σε άλλους χρήστες. Το πρόβλημα εντοπίστηκε από τον Sandeep Hodkasia, ιδρυτή της εταιρείας ελέγχου ασφάλειας AppSecure, ο οποίος το ανέφερε τον Δεκέμβριο του 2024. Ως ανταμοιβή για την αποκάλυψη της ευπάθειας, η Meta του προσέφερε $10.000 μέσω του προγράμματος bug bounty που διατηρεί.
Η εταιρεία επιβεβαίωσε ότι το σφάλμα έχει πλέον διορθωθεί και δήλωσε πως δεν υπάρχουν ενδείξεις κακόβουλης εκμετάλλευσής του. Ωστόσο, αυτό πρέπει να λειτουργήσει ως καμπανάκι για όποιον χρησιμοποιεί τεχνητή νοημοσύνη χωρίς δεύτερη σκέψη. Αυτό δεν σημαίνει ότι πρέπει να την αποφέυγετε εντελώς, αλλά σίγουρα πρέπει να τη χρησιμοποιείτε με προσοχή. Ένας και μόνος γραμμένος κώδικας μπορεί να κοστίσει ακριβά.
Δείτε ακόμα: Η OpenAI υπέγραψε σύμβαση με το Υπουργείο Άμυνας των ΗΠΑ
Ο Hodkasia ανακάλυψε το πρόβλημα ενώ εξέταζε πώς η Meta AI επιτρέπει σε συνδεδεμένους χρήστες να επεξεργάζονται προτροπές (prompts) ώστε να δημιουργούνται νέες απαντήσεις. Παρατήρησε ότι κάθε επεξεργασμένη προτροπή λάμβανε έναν μοναδικό αναγνωριστικό κωδικό από τα συστήματα της Meta. Αναλύοντας την κίνηση του δικτύου κατά τη διάρκεια αυτής της διαδικασίας, διαπίστωσε ότι τροποποιώντας το συγκεκριμένο αναγνωριστικό, μπορούσε να έχει πρόσβαση σε προτροπές και απαντήσεις άλλων χρηστών.
Η πλατφόρμα AI της Meta δεν είναι τελικά τόσο ασφαλής
Το πρόβλημα προερχόταν από την αποτυχία της Meta να επαληθεύσει αν ο χρήστης είχε την εξουσιοδότηση να δει την εκάστοτε προτροπή. Σύμφωνα με τον Hodkasia, τα αναγνωριστικά ήταν προβλέψιμα, κάτι που θα μπορούσε να επιτρέψει σε κακόβουλους χρήστες να αυτοματοποιήσουν τη διαδικασία και να συλλέξουν μαζικά ευαίσθητα δεδομένα.
Δείτε επίσης: Η τεχνητή νοημοσύνη της Anthropic αποκτά δικό της ιστολόγιο
Παρά τις μεγάλες επενδύσεις της εταιρείας στον τομέα της τεχνητής νοημοσύνης, η εφαρμογή Meta AI δεν έχει γνωρίσει ιδιαίτερη απήχηση, καθώς σύμφωνα με την εταιρεία ανάλυσης εφαρμογών Appfigures, έχει σημειώσει περίπου 6,5 εκατομμύρια λήψεις από την κυκλοφορία της στις 29 Απριλίου.
Πηγή: phonearena
You are receiving this email because you subscribed to this feed at https://blogtrottr.com
If you no longer wish to receive these emails, you can unsubscribe here:
https://blogtrottr.com/unsubscribe/nfz/3xfHTz