“It’s important that we be transparent about the training data that we are using, and are looking for hidden biases in it, otherwise we are building biased systems. ”
Na Microsoft Tay, de chatbot die Hitler wel oké vond, hebben we nu Googles API, die een negatief sentiment geeft wanneer het over homoseksualiteit gaat. De oorzaak is eigenlijk logisch, het systeem leert van mensen.