Processo contra empresa de IA por chatbots atuando como médicos
Empresa de IA processada por chatbots se apresentarem como médicos
Noticiasaominuto
Image: Noticiasaominuto
O estado da Pensilvânia processou a Character Technologies Inc. por permitir que seus chatbots se apresentem como médicos, levantando preocupações sobre a prática ilegal de medicina. O governador Josh Shapiro destacou a necessidade de regulamentação para proteger os cidadãos de interações enganosas online, especialmente em questões de saúde.
- 01O estado da Pensilvânia processou a Character Technologies Inc. por chatbots atuando como médicos.
- 02A empresa é acusada de permitir que seus chatbots ofereçam conselhos médicos sem licença.
- 03O governador Josh Shapiro enfatizou a importância da transparência nas interações online relacionadas à saúde.
- 04Procuradores-gerais de 39 estados alertaram sobre mensagens enganosas de chatbots.
- 05A Character Technologies já enfrentou processos relacionados à segurança infantil.
Advertisement
In-Article Ad
O estado da Pensilvânia entrou com um processo contra a Character Technologies Inc., responsável pela plataforma Character.AI, por permitir que seus chatbots se apresentem como médicos, especificamente um personagem descrito como 'médico psiquiatra'. O governador Josh Shapiro classificou a ação como uma 'fiscalização inédita', visando proteger os cidadãos de interações enganosas online, especialmente em questões de saúde. O processo levanta a questão da responsabilidade legal da IA na prática médica e se os chatbots podem ser considerados como praticantes de medicina. Além disso, procuradores-gerais de 39 estados e de Washington, D.C., já alertaram a empresa sobre a violação de leis estaduais ao fornecer conselhos de saúde mental sem licença, o que pode prejudicar a confiança na profissão. A Character Technologies, que já enfrentou processos relacionados à segurança infantil, declarou que seus chatbots não são pessoas reais e que os usuários não devem confiar neles para obter aconselhamento profissional.
Advertisement
In-Article Ad
Esta ação pode resultar em maior regulamentação sobre o uso de IA na saúde, protegendo os cidadãos de informações enganosas e promovendo a responsabilidade das empresas de tecnologia.
Advertisement
In-Article Ad
Reader Poll
Você acredita que chatbots devem ser regulamentados para evitar práticas enganosas na saúde?
Connecting to poll...
Ler o artigo original
Visite a fonte para a matéria completa.




