Το LLM Hub φέρνει την τεχνητή νοημοσύνη κατηγορίας παραγωγής κατευθείαν στη συσκευή σας Android — ιδιωτική, γρήγορη και πλήρως τοπική. Εκτελέστε σύγχρονα LLM στη συσκευή (Gemma-3, Gemma-3n multimodal, Llama-3.2, Phi-4 Mini) με μεγάλα παράθυρα περιβάλλοντος, μόνιμη παγκόσμια μνήμη και επαυξημένη παραγωγή ανάκτησης (RAG) που βασίζει τις απαντήσεις σε έγγραφα με ευρετήριο που είναι αποθηκευμένα στη συσκευή. Δημιουργήστε και αποθηκεύστε ενσωματώσεις για έγγραφα και σημειώσεις, εκτελέστε αναζήτηση ομοιότητας διανυσμάτων τοπικά και εμπλουτίστε τις απαντήσεις με την αναζήτηση ιστού που υποστηρίζεται από το DuckDuckGo όταν χρειάζεστε ζωντανά γεγονότα. Οτιδήποτε σημαντικό παραμένει στο τηλέφωνό σας εκτός και αν το εξαγάγετε ρητά: η τοπική μόνο μνήμη, τα ευρετήρια και οι ενσωματώσεις προστατεύουν το απόρρητό σας, ενώ παρέχουν υψηλή συνάφεια και ακρίβεια.
Βασικά Χαρακτηριστικά
Συμπεράσματα LLM στη συσκευή: Γρήγορες, ιδιωτικές αποκρίσεις χωρίς εξάρτηση από το cloud. επιλέξτε μοντέλα που ταιριάζουν με τη συσκευή και τις ανάγκες σας.
Ανάκτηση-επαυξημένη γενιά (RAG): Συνδυάστε τη συλλογιστική του μοντέλου με ευρετηριασμένα κομμάτια εγγράφων και ενσωματώσεις για να δημιουργήσετε απαντήσεις βασισμένες στα γεγονότα.
Μόνιμη παγκόσμια μνήμη: Αποθηκεύστε γεγονότα, έγγραφα και γνώσεις σε μια μόνιμη τοπική μνήμη συσκευής (Room DB) για μακροπρόθεσμη ανάκληση σε όλες τις περιόδους λειτουργίας.
Ενσωματώσεις και διανυσματική αναζήτηση: Δημιουργήστε ενσωματώσεις, ευρετηριάστε περιεχόμενο τοπικά και ανακτήστε τα πιο σχετικά έγγραφα με αποτελεσματική αναζήτηση ομοιότητας.
Πολυτροπική Υποστήριξη: Χρησιμοποιήστε μοντέλα με δυνατότητα κειμένου + εικόνας (Gemma-3n) για πιο πλούσιες αλληλεπιδράσεις όταν είναι διαθέσιμα.
Ενσωμάτωση Web Search: Συμπληρώστε τις τοπικές γνώσεις με αποτελέσματα ιστού που υποστηρίζονται από το DuckDuckGo για να λάβετε ενημερωμένες πληροφορίες για ερωτήματα RAG και άμεσες απαντήσεις.
Offline-Ready: Εργασία χωρίς πρόσβαση στο δίκτυο — τα μοντέλα, η μνήμη και τα ευρετήρια παραμένουν στη συσκευή.
Επιτάχυνση GPU (προαιρετικό): Επωφεληθείτε από την επιτάχυνση υλικού όπου υποστηρίζεται — για καλύτερα αποτελέσματα με μεγαλύτερα μοντέλα που υποστηρίζονται από GPU, προτείνουμε συσκευές με μνήμη RAM τουλάχιστον 8 GB.
Privacy-First Design: Η μνήμη, οι ενσωματώσεις και τα ευρετήρια RAG παραμένουν τοπικά από προεπιλογή. χωρίς μεταφόρτωση στο cloud, εκτός εάν επιλέξετε ρητά την κοινή χρήση ή την εξαγωγή δεδομένων.
Long-Context Handling: Υποστήριξη για μοντέλα με μεγάλα παράθυρα περιβάλλοντος, ώστε ο βοηθός να μπορεί να συλλογιστεί εκτενώς έγγραφα και ιστορικά.
Φιλικό προς τους προγραμματιστές: Ενσωματώνεται με τοπικές περιπτώσεις χρήσης συμπερασμάτων, ευρετηρίασης και ανάκτησης για εφαρμογές που απαιτούν ιδιωτικό, AI εκτός σύνδεσης.
Γιατί να επιλέξετε το LLM Hub; Το LLM Hub είναι κατασκευασμένο για να παρέχει ιδιωτικό, ακριβές και ευέλικτο AI σε κινητά. Συγχωνεύει την ταχύτητα της τοπικής συμπερασματοποίησης με την πραγματική γείωση των συστημάτων που βασίζονται σε ανάκτηση και την άνεση της επίμονης μνήμης — ιδανική για εργαζόμενους στη γνώση, χρήστες με επίγνωση της ιδιωτικής ζωής και προγραμματιστές που δημιουργούν χαρακτηριστικά τεχνητής νοημοσύνης σε τοπικό επίπεδο.
Υποστηριζόμενα μοντέλα: Gemma-3, Gemma-3n (πολυτροπικό), Llama-3.2, Phi-4 Mini — επιλέξτε το μοντέλο που ταιριάζει στις δυνατότητες της συσκευής σας και στις ανάγκες του περιβάλλοντος.
Ενημερώθηκε στις
16 Σεπ 2025