Apple parteciperà alla più grande conferenza di machine learning del mondo, reclutando nuovi ingegneri ML

Apple ha annunciato giovedì tramite il suo blog di Machine Learning Journal che parteciperà a NeurIPS, o alla conferenza sui sistemi di elaborazione delle informazioni neurali, che si svolgerà la prossima settimana dal 2 all'8 dicembre a Montréal, in Canada.

Avrà uno stand presso NeurIPS con esperti di apprendimento automatico in tutta l'azienda. Il post continua a pubblicizzare 137 posti di lavoro aperti nei vari campi dell'apprendimento automatico, tra cui intelligenza artificiale, visione artificiale, scienza dei dati e apprendimento profondo, infrastrutture di apprendimento automatico, apprendimento di rinforzo, tecnologie linguistiche e così via.

Per richiedere tali posizioni, visitare il sito Web Jobs di Apple.

Il colosso della tecnologia di Cupertino proibiva ai suoi scienziati di machine learning e intelligenza artificiale di pubblicare le loro scoperte o partecipare a conferenze specializzate, ma questo è cambiato con l'arrivo del blog di Machine Learning Journal a luglio 2017.

Da alcuni anni, Apple ha sviluppato lo stack hardware e lo stack semiconduttori pensando all'apprendimento automatico. I professionisti dell'iPad 2018 e le ultime due generazioni di iPhone hanno beneficiato enormemente dell'hardware dedicato di machine learning di Apple, soprannominato il motore Neural, che accelera tremendamente compiti computazionali pesanti come il riconoscimento di immagini e oggetti, analisi della voce, intelligenza artificiale, analisi della scena e altro.

Il Neural Engine è integrato nei chip della serie A di Apple a partire dall'A11 Bionic dell'anno scorso. Quest'anno A12 Bionic ha un hardware Neural Engine ancora più veloce in grado di eseguire fino a cinque trilioni di istruzioni al secondo. Ciò ha consentito un'analisi di immagini e scene fino a 10 volte più rapida rispetto al chip A11 Bionic, rendendo possibili funzionalità avanzate di fotografia computazionale e capacità di imaging come il controllo della profondità in tempo reale e Smart HDR.

Su iPhone senza Neural Engine, iOS ricorre alla CPU e alla GPU per queste attività.

In estate, Apple ha assunto il veterano esperto di Google ed ex capo della Ricerca e AI, John Giannandrea, e ha unito i suoi team Core ML e Siri.