Costo di allineamento
Il costo di allineamento (a volte chiamato costo di sicurezza) è il costo aggiuntivo necessario per creare un’IA allineata, rispetto a un’IA non allineata.
Paul Christiano distingue due approcci principali per affrontare i costi di allineamento.1 Un approccio cerca di trovare modi per pagare i costi, come persuadere i singoli protagonisti a pagarli o facilitare un tipo di che permetterebbe ai gruppi di pagarla. L’altro approccio cerca di ridurre i costi, facendo avanzare in modo differenziato gli algoritmi allineabili esistenti o rendendo gli algoritmi esistenti più allineabili.
Amanda Askell et al. (2021) A general language assistant as a laboratory for alignment, arXiv:2112.00861 [cs].
Mark Xu & Carl Shulman (2021) Rogue AGI embodies valuable intellectual property, LessWrong, 3 di giugno.
Eliezer Yudkowsky (2017) Aligning an AGI adds significant development time, Arbital, 22 di febbraio.