Le aziende di AI acquistano dati da startup fallite per migliorare i loro modelli
I dati delle aziende e startup fallite fanno gola ai colossi dell’AI
La Repubblica
Image: La Repubblica
Le aziende di intelligenza artificiale stanno acquisendo archivi di dati da startup fallite per affinare i loro modelli di apprendimento. Questo mercato, in crescita, solleva preoccupazioni sulla privacy e sulla proprietà dei dati, spingendo la California a introdurre normative più severe a partire dal 2026.
- 01Le aziende di AI acquistano dati da startup fallite per migliorare i loro modelli di apprendimento.
- 02Il mercato dei dati delle aziende fallite è in espansione, con startup come Fleet e SimpleClosure che si stanno affermando.
- 03Preoccupazioni sulla privacy e sulla proprietà dei dati stanno emergendo, portando a richieste di regolamentazione.
- 04A partire dal 2026, la California richiederà la trasparenza sui dati personali utilizzati negli algoritmi di AI.
- 05Investimenti significativi sono previsti nel settore dell'AI, con Anthropic e OpenAI che potrebbero spendere un miliardo di dollari all'anno.
Advertisement
In-Article Ad
Le aziende di intelligenza artificiale stanno sempre più acquisendo archivi di dati di startup fallite per migliorare i loro modelli di apprendimento. Questi dati includono informazioni quotidiane come email e gestioni di progetti, utilizzati per creare ambienti di apprendimento più realistici per gli agenti AI. Startup come Fleet, che ha visto i suoi ricavi crescere da 1 milione a 60 milioni di dollari, e SimpleClosure, che facilita la vendita di dati aziendali, stanno guidando questo mercato in espansione. Tuttavia, sorgono preoccupazioni riguardo alla privacy degli ex-dipendenti e alla proprietà dei dati. Marc Rotenberg, fondatore del Center for AI and Digital Policy, ha sollevato la questione della cessione dei diritti di proprietà intellettuale sui dati, evidenziando i rischi di identificazione delle persone. In risposta a queste preoccupazioni, la California ha introdotto la legge sull'Artificial Intelligence Training Data Transparency, che entrerà in vigore nel 2026, obbligando gli sviluppatori di AI a dichiarare se i loro dataset contengono dati personali o protetti da copyright.
Advertisement
In-Article Ad
Le nuove normative sulla trasparenza dei dati in California potrebbero influenzare come le aziende di AI gestiscono e utilizzano i dati, proteggendo la privacy degli ex-dipendenti.
Advertisement
In-Article Ad
Reader Poll
Come valuti l'acquisto di dati da startup fallite da parte delle aziende di AI?
Connecting to poll...
Leggi l'articolo originale
Visita la fonte per l'articolo completo.




