Η αναδυόμενη τάση στην τεχνολογία της τεχνητής νοημοσύνης καθιστά απαραίτητη τη δυνατότητα εκτέλεσης μοντέλων AI τοπικά. Το εργαλείο Ollama, γνωστό για τις δυνατότητές του, έχει σημειώσει πρόσφατες εξελίξεις που το κάνουν ακόμα πιο ελκυστικό για τους χρήστες υπολογιστών Macintosh.
Τα τοπικά μοντέλα τεχνητής νοημοσύνης τρέχουν τώρα πιο γρήγορα στο Ollama σε υπολογιστές σιλικόνης της Apple
Η Ollama είναι μια εφαρμογή που επιτρέπει στους χρήστες να εκτελούν μοντέλα τεχνητής νοημοσύνης απευθείας στους υπολογιστές τους, για λειτουργικά συστήματα όπως το Mac, Linux και Windows. Αντίθετα με τις εφαρμογές που απαιτούν σύνδεση στο διαδίκτυο, όπως το ChatGPT, το Ollama προσφέρει τη δυνατότητα εκτέλεσης μοντέλων τοπικά, προσφέροντας μεγαλύτερη αυτονομία και ταχύτητα.
Οι χρήστες μπορούν να αποκτούν μοντέλα από πλατφόρμες ανοιχτού κώδικα όπως το Hugging Face ή απευθείας από τους δημιουργούς τους. Ωστόσο, η τοπική εκτέλεση μοντέλων AI δεν είναι πάντα εύκολη, καθώς ακόμα και τα μικρότερα LLM (Large Language Models) μπορεί να καταναλώνουν σημαντικούς πόρους RAM και GPU.
Στην κατεύθυνση αυτή, ο Ollama έχει κυκλοφορήσει μια νέα προεπισκόπηση της εφαρμογής του (Ollama 0.19) που αξιοποιεί το MLX, την πλατφόρμα μηχανικής εκμάθησης της Apple. Αυτή η νέα αρχιτεκτονική εκμεταλλεύεται τη γενική μνήμη των υπολογιστών Apple σιλικόνης, βελτιώνοντας σημαντικά την ταχύτητα εκτέλεσης των μοντέλων τεχνητής νοημοσύνης.
Η Ollama αναφέρει ότι οι βελτιώσεις οδηγήσουν σε επιτάχυνση της εκτέλεσης στις συσκευές Apple Silicon. Η αξιοποίηση των νευρωνικών επιταχυντών GPU στα τσιπ M5, M5 Pro και M5 Max προσφέρει σημαντικά ψήγματα: αύξηση της ταχύτητας παραγωγής και μείωση του χρόνου αναμονής.

Με τις νέες δυνατότητες του Ollama, η εκτέλεση προσωπικών βοηθών όπως το OpenClaw και κωδικοποιητών τύπου Claude Code, OpenCode ή Codex γίνεται πιο γρήγορη και αποτελεσματική. Ωστόσο, η Ollama προειδοποιεί ότι οι χρήστες πρέπει να διαθέτουν υπολογιστές με τουλάχιστον 32 GB ενοποιημένης μνήμης, γεγονός που μπορεί να περιορίσει τη χρήση στους περισσότερους χρήστες που ενδιαφέρονται να εκτελούν τοπικά LLM.
Για περισσότερες πληροφορίες σχετικά με τον Ollama, μπορείτε να επισκεφθείτε την επίσημη ιστοσελίδα της εδώ. Για λεπτομέρειες σχετικά με το έργο MLX της Apple, επισκεφθείτε το εδώ.
Αξίζει να το δείτε στο Amazon


