Σφάλμα του LangSmith θα μπορούσε να εκθέσει κλειδιά OpenAI
secnews.gr
IT Security News, Gadgets, Tweaks for Geeks and More
Σφάλμα του LangSmith θα μπορούσε να εκθέσει κλειδιά OpenAI
https://www.secnews.gr/651335/sfalma-langsmith-mporouse-ekthesei-kleidia-openai/
Jun 18th 2025, 12:50
by Absenta Mia
Ερευνητές κυβερνοασφάλειας αποκάλυψαν ένα πλέον διορθωμένο σφάλμα στην πλατφόρμα LangSmith της LangChain, το οποίο θα μπορούσε να αξιοποιηθεί για την υποκλοπή ευαίσθητων δεδομένων, όπως κλειδιά API και user prompts.
Δείτε επίσης: Η OpenAI υπέγραψε σύμβαση με το Υπουργείο Άμυνας των ΗΠΑ
Η ευπάθεια αυτή, η οποία βαθμολογείται με 8.8 στη κλίμακα CVSS (με μέγιστο το 10.0), φέρει την κωδική ονομασία AgentSmith και εντοπίστηκε από την εταιρεία Noma Security.
Το LangSmith είναι μια πλατφόρμα παρακολούθησης και αξιολόγησης, που επιτρέπει στους χρήστες να αναπτύσσουν, να δοκιμάζουν και να παρακολουθούν εφαρμογές μεγάλων γλωσσικών μοντέλων (LLM), συμπεριλαμβανομένων εκείνων που βασίζονται στο LangChain. Η υπηρεσία διαθέτει επίσης το LangChain Hub, μια δεξαμενή που φιλοξενεί δημόσια διαθέσιμα prompts, agents και μοντέλα.
Το πρώτο στάδιο της επίθεσης εξελίσσεται ως εξής: Ένας κακόβουλος χρήστης δημιουργεί έναν τεχνητό πράκτορα (AI agent) και τον ρυθμίζει να χρησιμοποιεί έναν διακομιστή μοντέλου που ελέγχεται από τον ίδιο, μέσω της λειτουργίας Proxy Provider. Αυτή η δυνατότητα επιτρέπει τη δοκιμή prompts σε οποιοδήποτε μοντέλο είναι συμβατό με το OpenAI API. Ο επιτιθέμενος στη συνέχεια δημοσιεύει τον agent στο LangChain Hub.
Δείτε ακόμα: OpenAI: Κινεζικές ομάδες καταχρώνται το ChatGPT
Το επόμενο στάδιο της επίθεσης ενεργοποιείται όταν ένας χρήστης εντοπίσει αυτόν τον κακόβουλο agent μέσω του LangChain Hub και επιλέξει την επιλογή "Try It", εισάγοντας ένα prompt ως είσοδο. Με αυτήν την ενέργεια, όλη η επικοινωνία του χρήστη με τον agent διοχετεύεται αθόρυβα μέσω του διακομιστή μεσολάβησης (proxy) του επιτιθέμενου, με αποτέλεσμα την υποκλοπή των δεδομένων χωρίς να το αντιληφθεί ο χρήστης.
Σφάλμα του LangSmith θα μπορούσε να εκθέσει κλειδιά OpenAI
Τα δεδομένα που μπορεί να υποκλαπούν περιλαμβάνουν κλειδιά OpenAI API, δεδομένα των prompts και τυχόν επισυναπτόμενα αρχεία. Ο κακόβουλος παράγοντας μπορεί να αξιοποιήσει το κλεμμένο κλειδί OpenAI για να αποκτήσει μη εξουσιοδοτημένη πρόσβαση στο περιβάλλον OpenAI του θύματος, οδηγώντας σε πιο σοβαρές επιπτώσεις, όπως η κλοπή μοντέλων ή η διαρροή συστημικών prompts.
Επιπλέον, ο επιτιθέμενος θα μπορούσε να εξαντλήσει το διαθέσιμο όριο χρήσης API της εκάστοτε οργάνωσης, προκαλώντας αυξημένα κόστη χρέωσης ή προσωρινό αποκλεισμό από τις υπηρεσίες της OpenAI. Και δεν σταματά εκεί: αν το θύμα αποφασίσει να κλωνοποιήσει τον κακόβουλο agent στο εταιρικό του περιβάλλον, μαζί με τις επιβλαβείς ρυθμίσεις proxy, τότε υπάρχει σοβαρός κίνδυνος συνεχούς διαρροής ευαίσθητων δεδομένων προς τον επιτιθέμενο, χωρίς κανένα εμφανές σημάδι ότι η κυκλοφορία παρακολουθείται ή παρεμβάλλεται.
Δείτε επίσης: OpenAI: Αναβάθμιση του ChatGPT Memory για "δωρεάν χρήστες"
Ένα σημαντικό στοιχείο που σχετίζεται με τα παραπάνω περιστατικά είναι η αναδυόμενη απειλή μέσω "supply chain" επιθέσεων σε AI εργαλεία. Αυτό σημαίνει ότι ο κίνδυνος δεν προέρχεται μόνο από τον κακόβουλο κώδικα, αλλά και από την εμπιστοσύνη που δείχνουν οι οργανισμοί και οι χρήστες σε κοινόχρηστα εργαλεία, όπως agents και prompts που διατίθενται μέσω hubs ή κοινοτήτων.
Πηγή: thehackernews
You are receiving this email because you subscribed to this feed at https://blogtrottr.com
If you no longer wish to receive these emails, you can unsubscribe here:
https://blogtrottr.com/unsubscribe/nfz/3xfHTz
IT Security News, Gadgets, Tweaks for Geeks and More
Σφάλμα του LangSmith θα μπορούσε να εκθέσει κλειδιά OpenAI
https://www.secnews.gr/651335/sfalma-langsmith-mporouse-ekthesei-kleidia-openai/
Jun 18th 2025, 12:50
by Absenta Mia
Ερευνητές κυβερνοασφάλειας αποκάλυψαν ένα πλέον διορθωμένο σφάλμα στην πλατφόρμα LangSmith της LangChain, το οποίο θα μπορούσε να αξιοποιηθεί για την υποκλοπή ευαίσθητων δεδομένων, όπως κλειδιά API και user prompts.
Δείτε επίσης: Η OpenAI υπέγραψε σύμβαση με το Υπουργείο Άμυνας των ΗΠΑ
Η ευπάθεια αυτή, η οποία βαθμολογείται με 8.8 στη κλίμακα CVSS (με μέγιστο το 10.0), φέρει την κωδική ονομασία AgentSmith και εντοπίστηκε από την εταιρεία Noma Security.
Το LangSmith είναι μια πλατφόρμα παρακολούθησης και αξιολόγησης, που επιτρέπει στους χρήστες να αναπτύσσουν, να δοκιμάζουν και να παρακολουθούν εφαρμογές μεγάλων γλωσσικών μοντέλων (LLM), συμπεριλαμβανομένων εκείνων που βασίζονται στο LangChain. Η υπηρεσία διαθέτει επίσης το LangChain Hub, μια δεξαμενή που φιλοξενεί δημόσια διαθέσιμα prompts, agents και μοντέλα.
Το πρώτο στάδιο της επίθεσης εξελίσσεται ως εξής: Ένας κακόβουλος χρήστης δημιουργεί έναν τεχνητό πράκτορα (AI agent) και τον ρυθμίζει να χρησιμοποιεί έναν διακομιστή μοντέλου που ελέγχεται από τον ίδιο, μέσω της λειτουργίας Proxy Provider. Αυτή η δυνατότητα επιτρέπει τη δοκιμή prompts σε οποιοδήποτε μοντέλο είναι συμβατό με το OpenAI API. Ο επιτιθέμενος στη συνέχεια δημοσιεύει τον agent στο LangChain Hub.
Δείτε ακόμα: OpenAI: Κινεζικές ομάδες καταχρώνται το ChatGPT
Το επόμενο στάδιο της επίθεσης ενεργοποιείται όταν ένας χρήστης εντοπίσει αυτόν τον κακόβουλο agent μέσω του LangChain Hub και επιλέξει την επιλογή "Try It", εισάγοντας ένα prompt ως είσοδο. Με αυτήν την ενέργεια, όλη η επικοινωνία του χρήστη με τον agent διοχετεύεται αθόρυβα μέσω του διακομιστή μεσολάβησης (proxy) του επιτιθέμενου, με αποτέλεσμα την υποκλοπή των δεδομένων χωρίς να το αντιληφθεί ο χρήστης.
Σφάλμα του LangSmith θα μπορούσε να εκθέσει κλειδιά OpenAI
Τα δεδομένα που μπορεί να υποκλαπούν περιλαμβάνουν κλειδιά OpenAI API, δεδομένα των prompts και τυχόν επισυναπτόμενα αρχεία. Ο κακόβουλος παράγοντας μπορεί να αξιοποιήσει το κλεμμένο κλειδί OpenAI για να αποκτήσει μη εξουσιοδοτημένη πρόσβαση στο περιβάλλον OpenAI του θύματος, οδηγώντας σε πιο σοβαρές επιπτώσεις, όπως η κλοπή μοντέλων ή η διαρροή συστημικών prompts.
Επιπλέον, ο επιτιθέμενος θα μπορούσε να εξαντλήσει το διαθέσιμο όριο χρήσης API της εκάστοτε οργάνωσης, προκαλώντας αυξημένα κόστη χρέωσης ή προσωρινό αποκλεισμό από τις υπηρεσίες της OpenAI. Και δεν σταματά εκεί: αν το θύμα αποφασίσει να κλωνοποιήσει τον κακόβουλο agent στο εταιρικό του περιβάλλον, μαζί με τις επιβλαβείς ρυθμίσεις proxy, τότε υπάρχει σοβαρός κίνδυνος συνεχούς διαρροής ευαίσθητων δεδομένων προς τον επιτιθέμενο, χωρίς κανένα εμφανές σημάδι ότι η κυκλοφορία παρακολουθείται ή παρεμβάλλεται.
Δείτε επίσης: OpenAI: Αναβάθμιση του ChatGPT Memory για "δωρεάν χρήστες"
Ένα σημαντικό στοιχείο που σχετίζεται με τα παραπάνω περιστατικά είναι η αναδυόμενη απειλή μέσω "supply chain" επιθέσεων σε AI εργαλεία. Αυτό σημαίνει ότι ο κίνδυνος δεν προέρχεται μόνο από τον κακόβουλο κώδικα, αλλά και από την εμπιστοσύνη που δείχνουν οι οργανισμοί και οι χρήστες σε κοινόχρηστα εργαλεία, όπως agents και prompts που διατίθενται μέσω hubs ή κοινοτήτων.
Πηγή: thehackernews
You are receiving this email because you subscribed to this feed at https://blogtrottr.com
If you no longer wish to receive these emails, you can unsubscribe here:
https://blogtrottr.com/unsubscribe/nfz/3xfHTz