📱Apple Intelligence testé pour toi : que vaut l’IA de l’iPhone ?
Salut, toi qui scrutes ton iPhone comme moi, à la recherche du moindre frisson tech !
Depuis le 31 mars, avec iOS 18.4, Apple a lâché son Apple Intelligence en France, et j’ai plongé dedans, curieux et un peu sceptique.
Neuf mois après son annonce en grande pompe et quatre mois après les États-Unis, cette IA débarque pour booster mes textos, mes photos et même mes emojis.
Mais attention, pas de miracle pour tous : seuls les iPhone 16, 15 Pro, ou les iPad et Mac avec puces M ou A17 Pro peuvent suivre.
Mon vieux Mac Intel ? Il pleure dans un coin, et moi avec, vu les 7 Go qu’il faut pour faire tourner ça.
Une IA qui veut me simplifier la vie
Je me vois encore, café en main, tester cette suite qui promet de rendre mes mails plus chic, mes notes plus claires et mes photos retouchées en un clin d’œil.
Apple Intelligence s’incruste dans Messages, Notes, Photos, et même Siri, qui se la joue plus naturel.
Objectif ? Rattraper le train de l’IA générative, parti en trombe avec ChatGPT fin 2022.
Face à Google, Samsung ou Microsoft, qui balancent des milliards dans leurs modèles, Apple joue la carte de la discrétion.
Et pourtant, j’ai l’impression que certaines fonctions, comme retoucher une image ou générer un emoji, me rappellent vaguement mes potes sous Android.
Aux US, certains ont même crié à la pub mensongère, pensant que tout ça serait dispo dès la sortie de l’iPhone 16.
Moi, j’attendais juste de voir.
Confidentialité avant tout, mais à quel prix ?
Ce qui me frappe, c’est cette obsession d’Apple pour la sécurité. Pas de cloud à tout va ici : l’IA bosse en local, sur mes appareils.
Quand ça devient trop costaud, un « private cloud compute » prend le relais, chiffré et anonyme.
J’aime l’idée que mes données ne traînent pas partout, mais ça limite la bête.
Pas d’entraînement sur des bases énormes comme chez les concurrents, donc pas d’ultra-personnalisation.
Et puis, ça écarte plein d’appareils plus anciens qui auraient pu s’en sortir via le cloud.
Moi, avec mon iPhone 16, je suis dans le game, mais je sens que cette IA a encore du chemin.
Siri 2.0 : un pas en avant, deux en arrière
Siri, mon vieux pote, a eu droit à un lifting.
Un halo coloré l’entoure maintenant, et je peux l’appeler d’un appui ou en tapant.
Il capte mieux mes intentions, même quand je bafouille. « Règle une alarme » ou « envoie un SMS » ? Nickel.
Mais lui demander de lancer ma playlist matinale tout en réglant mon réveil ? Il me crée une alarme nommée « playlist ».
Sérieux, Siri, t’es pas encore le génie autonome qu’Apple m’a vendu il y a neuf mois.
Pour les trucs complexes, il passe la main à ChatGPT – gratuit, sans historique sauf si je lie mon compte OpenAI.
À l’avenir, peut-être Google Gemini ou Perplexity ? Samsung, lui, connecte déjà tout à Gemini sur ses Galaxy S25.
Écriture et photos : du bon et du moins bon
Côté écriture, j’avoue, ça m’aide.
Dans Mails ou Notes, je sélectionne un texte, clique sur « Outils d’écriture », et hop, il devient plus pro ou plus cool selon mon humeur.
Les résumés de mails ou de notifs ? Pratique, mais en français, ça patine encore, avec des contresens rigolos.
Pour les images, Genmoji me fait marrer : « Moi en super-héros », et voilà un emoji perso.
Playground, par contre, c’est bof face à Midjourney.
La retouche « Corriger » ? Une gomme magique au rabais comparée à Google. Mais la recherche visuelle, avec « Visual Intelligence », m’épate : un clic sur un monument, et j’ai son histoire.
Bref, Apple Intelligence, c’est un début.
Pas la révolution, mais un truc qui s’installe doucement dans mon quotidien.
Et toi, t’en penses quoi ? Dis-moi en commentaires ci-dessous !
Credit photo : Apple