Intelligenza artificiale solo per attività strumentali e di supporto
Si moltiplicano i casi di inopportuno affidamento sui risultati delle ricerche prive di controlli
Stando a quanto riportato di recente dalla stampa, una nota società di consulenza internazionale ha ammesso di aver utilizzato l’intelligenza artificiale (Gpt-4o di OpenAI) al fine di predisporre un documento per il governo australiano rivelatosi pieno delle c.d. “allucinazioni”, con dichiarazioni false di esperti del settore e ricerche sostanzialmente inventate.
Il documento era destinato a valutare un sistema informatico per l’individuazione di dichiarazioni false nelle richieste di aiuti statali. Sennonché, rispetto ad esso, il vicedirettore del dipartimento di diritto sanitario dell’Università di Sydney aveva notato citazioni di inesistenti rapporti riferiti ad una professoressa della facoltà di giurisprudenza. Circostanza che, verosimilmente, aveva dato il
...Vietata ogni riproduzione ed estrazione ex art. 70-quater della L. 633/41