Da quando ChatGpt ha fatto capolino nelle nostre vite, molte cose stanno cambiando: ecco cosa succede se lo usi in modo improprio
L‘intelligenza artificiale ha preso il sopravvento nelle nostre vite, al punto che molti lavori sono stati considerati facilmente sostituibili. Ormai ChatGpt risponde a qualsiasi nostra domanda, anche in ambito personale e affettivo. Inoltre c’è sempre, non ha giorni “off” né “break”. Può fornirci informazioni su una vasta gamma di argomenti, e spesso riesce a rimpiazzare anche la nostra creatività e originalità. Dovremmo però renderci conto che si tratta di robot non umani, privi di emozioni. Se ne facciamo abuso, rischiamo anche di divenirne dipendenti, e non avremo più considerazioni personali.

Cosa succede se non lo utilizziamo in modo critico e consapevole? Potremmo finire nei guai seri, com’è successo nel tribunale di Firenze. È stato affrontato per la prima volta il tema per l’utilizzo inappropriato dell’intelligenza artificiale. Il tema riguardava una casa sui diritti di autore. Il tribunale ha dovuto decidere se i riferimenti giuridici citati errati, erano frutto di intelligenza artificiale. Si può rischiare la condanna per lite temeraria?
L’uso di ChatGpt in modo non consapevole può causare una condanna penale
Il tutto è partito dall’accusa che è stata fatta ad un’azienda per merce contraffatta. In seguito al sequestro dei prodotti, la parte lesa ha chiesto una che l’azienda fosse condannata per responsabilità aggravata. Questi sostenevano, infatti, che l’avvocato dell’azienda avesse riferito riferimenti giuridici sbagliati, quindi non veritieri. È stata quindi accusata di mala fede quindi un utilizzo non consono dei dati processuali.

In questo caso però l’avvocato si è giustificato. Ha infatti dichiarato che i riferimenti errati sono stati inseriti da una sua collaboratrice che avrebbe fatto riferimento a ChatGPT e che lui stesso non ne era a conoscenza. Tuttavia questa condizione ha un vero nome in ambito processuale, parliamo infatti: allucinazioni di intelligenza artificiale. Questa subentra quando l’AI inventa, affermando il falso o cose che non esistono. Tuttavia per condannare qualcuno per responsabilità aggravata, è necessario provare tutti i danni subiti. In questo caso, coloro che hanno accusato l’azienda non avevano provate dei danni subiti.
Per questa ragione, dal momento che non sono emerse prove inconfutabili, il Tribunale non ha accettato la richiesta. Malgrado ciò, a prescindere da chi è stato accusato o meno, questa è stata la prima situazione in cui è stato chiamato in causa l’intelligenza artificiale. Questo vuol dire che l’AI deve essere usata con criterio e consapevolezza, soprattutto da parte dei professionisti. Si deve sempre testare la veridicità delle informazioni per evitare errori che possono portare anche a condanne. Per questa ragione, Maggioli Editore ha deciso di organizzare un corso per aiutare gli avvocati ad utilizzare ChatGpt in modo corretto.