Η Ollama επιταχύνει την AI στο πυρίτιο της Apple με MLX!


Η αναδυόμενη τάση στην τεχνολογία της τεχνητής νοημοσύνης καθιστά απαραίτητη τη δυνατότητα εκτέλεσης μοντέλων AI τοπικά. Το εργαλείο Ollama, γνωστό για τις δυνατότητές του, έχει σημειώσει πρόσφατες εξελίξεις που το κάνουν ακόμα πιο ελκυστικό για τους χρήστες υπολογιστών Macintosh.

Τα τοπικά μοντέλα τεχνητής νοημοσύνης τρέχουν τώρα πιο γρήγορα στο Ollama σε υπολογιστές σιλικόνης της Apple

Η Ollama είναι μια εφαρμογή που επιτρέπει στους χρήστες να εκτελούν μοντέλα τεχνητής νοημοσύνης απευθείας στους υπολογιστές τους, για λειτουργικά συστήματα όπως το Mac, Linux και Windows. Αντίθετα με τις εφαρμογές που απαιτούν σύνδεση στο διαδίκτυο, όπως το ChatGPT, το Ollama προσφέρει τη δυνατότητα εκτέλεσης μοντέλων τοπικά, προσφέροντας μεγαλύτερη αυτονομία και ταχύτητα.

Οι χρήστες μπορούν να αποκτούν μοντέλα από πλατφόρμες ανοιχτού κώδικα όπως το Hugging Face ή απευθείας από τους δημιουργούς τους. Ωστόσο, η τοπική εκτέλεση μοντέλων AI δεν είναι πάντα εύκολη, καθώς ακόμα και τα μικρότερα LLM (Large Language Models) μπορεί να καταναλώνουν σημαντικούς πόρους RAM και GPU.

Στην κατεύθυνση αυτή, ο Ollama έχει κυκλοφορήσει μια νέα προεπισκόπηση της εφαρμογής του (Ollama 0.19) που αξιοποιεί το MLX, την πλατφόρμα μηχανικής εκμάθησης της Apple. Αυτή η νέα αρχιτεκτονική εκμεταλλεύεται τη γενική μνήμη των υπολογιστών Apple σιλικόνης, βελτιώνοντας σημαντικά την ταχύτητα εκτέλεσης των μοντέλων τεχνητής νοημοσύνης.

Η Ollama αναφέρει ότι οι βελτιώσεις οδηγήσουν σε επιτάχυνση της εκτέλεσης στις συσκευές Apple Silicon. Η αξιοποίηση των νευρωνικών επιταχυντών GPU στα τσιπ M5, M5 Pro και M5 Max προσφέρει σημαντικά ψήγματα: αύξηση της ταχύτητας παραγωγής και μείωση του χρόνου αναμονής.

Με τις νέες δυνατότητες του Ollama, η εκτέλεση προσωπικών βοηθών όπως το OpenClaw και κωδικοποιητών τύπου Claude Code, OpenCode ή Codex γίνεται πιο γρήγορη και αποτελεσματική. Ωστόσο, η Ollama προειδοποιεί ότι οι χρήστες πρέπει να διαθέτουν υπολογιστές με τουλάχιστον 32 GB ενοποιημένης μνήμης, γεγονός που μπορεί να περιορίσει τη χρήση στους περισσότερους χρήστες που ενδιαφέρονται να εκτελούν τοπικά LLM.

Για περισσότερες πληροφορίες σχετικά με τον Ollama, μπορείτε να επισκεφθείτε την επίσημη ιστοσελίδα της εδώ. Για λεπτομέρειες σχετικά με το έργο MLX της Apple, επισκεφθείτε το εδώ.

Αξίζει να το δείτε στο Amazon

Προσθέστε το 9to5Mac ως προτιμώμενη πηγή στο Google
Προσθέστε το 9to5Mac ως προτιμώμενη πηγή στο Google

FTC: Χρησιμοποιούμε συνδέσμους θυγατρικών που κερδίζουν αυτόματα εισόδημα. Περισσότερα.

Dimitris Marizashttps://starlinkgreece.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisement -

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε
- Advertisement -

Most Popular Articles

- Advertisement -

Latest Articles