Facebook recruta técnico de AI para ajudar a prevenir suicídios
Facebook pode usar tudo o que sabe sobre nós para ajudar alguém não cometer suicídio?
Foi mais do que uma pergunta retórica desde janeiro, depois de um vídeo, retirado da plataforma de mídia social Live.Me e compartilhada no Facebook, mostrou uma Katelyn de 12 anos de idade Nicole Davis tirando a própria vida. O Facebook não conseguiu controlar a propagação do vídeo e pareceu inseguro se violava seus próprios termos de serviço.
VEJA TAMBÉM: Facebook pronto para rampa acima dos vôos de seu zumbido solar-powered
Um mês depois, o manifesto da comunidade global do CEO do Facebook Mark Zuckerberg, 6000 palavras, deixou claro que o Facebook está pronto para assumir um papel mais parental, que reconhece sua incrível influência e impacto sobre quase 2 bilhões de pessoas em todo o mundo. Zuckerberg escreveu:
A comunidade Facebook está em uma posição única para ajudar a prevenir danos, ajudar durante uma crise, ou se reúnem para reconstruir depois. Isto é devido à quantidade de comunicação em toda a nossa rede, a nossa capacidade de rapidamente alcançar as pessoas em todo o mundo em uma emergência, ea vasta escala da bondade intrínseca das pessoas agregadas em toda a nossa comunidade.
Agora o Facebook está pronto, a empresa anunciou na quarta-feira, dar um primeiro e significativo passo na construção de uma comunidade Facebook mais segura e mais solidária, reforçando significativamente suas próprias ferramentas de prevenção de suicídio (Facebook teve relatórios de suicídio e ferramentas por uma década). A atualização inclui uma afirmação bastante incrível: o Facebook usará inteligência artificial para identificar aqueles membros que estão pensando em suicidar-se.
"Eu escrevi uma carta sobre a construção da comunidade global um par de semanas atrás, e um dos pilares da comunidade que eu discuti foi manter as pessoas seguras", Zuckerberg escreveu em seu feed Facebook pessoal na quarta-feira. "Essas ferramentas são um exemplo de como podemos ajudar a manter um ao outro seguro."
De acordo com uma liberação que esboça seus planos, Facebook está testando agora um sistema que confie no recognition do teste padrão baseado nos bornes previamente relatados para o risco do suicide.
Foi mais do que uma pergunta retórica desde janeiro, depois de um vídeo, retirado da plataforma de mídia social Live.Me e compartilhada no Facebook, mostrou uma Katelyn de 12 anos de idade Nicole Davis tirando a própria vida. O Facebook não conseguiu controlar a propagação do vídeo e pareceu inseguro se violava seus próprios termos de serviço.
VEJA TAMBÉM: Facebook pronto para rampa acima dos vôos de seu zumbido solar-powered
Um mês depois, o manifesto da comunidade global do CEO do Facebook Mark Zuckerberg, 6000 palavras, deixou claro que o Facebook está pronto para assumir um papel mais parental, que reconhece sua incrível influência e impacto sobre quase 2 bilhões de pessoas em todo o mundo. Zuckerberg escreveu:
A comunidade Facebook está em uma posição única para ajudar a prevenir danos, ajudar durante uma crise, ou se reúnem para reconstruir depois. Isto é devido à quantidade de comunicação em toda a nossa rede, a nossa capacidade de rapidamente alcançar as pessoas em todo o mundo em uma emergência, ea vasta escala da bondade intrínseca das pessoas agregadas em toda a nossa comunidade.
Agora o Facebook está pronto, a empresa anunciou na quarta-feira, dar um primeiro e significativo passo na construção de uma comunidade Facebook mais segura e mais solidária, reforçando significativamente suas próprias ferramentas de prevenção de suicídio (Facebook teve relatórios de suicídio e ferramentas por uma década). A atualização inclui uma afirmação bastante incrível: o Facebook usará inteligência artificial para identificar aqueles membros que estão pensando em suicidar-se.
"Eu escrevi uma carta sobre a construção da comunidade global um par de semanas atrás, e um dos pilares da comunidade que eu discuti foi manter as pessoas seguras", Zuckerberg escreveu em seu feed Facebook pessoal na quarta-feira. "Essas ferramentas são um exemplo de como podemos ajudar a manter um ao outro seguro."
De acordo com uma liberação que esboça seus planos, Facebook está testando agora um sistema que confie no recognition do teste padrão baseado nos bornes previamente relatados para o risco do suicide.
Postar um comentário