LA RETE NEURALE DI ELON MUSK. A luglio del 2020, fa il giro del mondo la notizia della nascita di GPT-3, un Generative Pretrained Transformer di terza generazione. Questa rete neurale – progettata dalla società OpenAi di Elon Musk (Tesla) –  usa tecniche di Natural Language Processing per eseguire un compito. E’, in altre parole, un modello computazione linguistico pensato che crea sequenze di parole, codice o altri dati, partendo da un input di partenza.  Il GPT di prima generazione (2018) usava 110 milioni di parametri di apprendimento (i valori che una rete neurale prova a ottimizzare). Quello di seconda generazione si spinse a 1,5 miliardi. GPT-3  utilizza ben 175 miliardi. Scrive Virman Cusenza (vincos.it): “Per quanto straordinari, questi risultati non sono neanche lontanamente vicini al concetto di intelligenza generale, tanto paventato (in primis da Elon Musk che ha lasciato OpenAI per questo motivo). Qui il complesso algoritmo, grazie alla miriade di informazioni ingerite e a modelli statistici, prevede la più probabile sequenza di termini, senza comprenderne il significato. In definitiva il modello lavora sulla sintassi, ma non sulla semantica”.

Ascolta “Chi l’ha scritto? Un umano o un robot?” su Spreaker.

5 / 5 (2 votes)