Android

Faceapp, halktan sonra 'siyah', 'hint', 'asya' filtrelerini kaldırıyor ...

Yedek rozetler nasıl yapılır

Yedek rozetler nasıl yapılır
Anonim

Bu yılın başlarında başlatılan ve selfie dünyasını fırtınaya sürükleyen popüler bir selfie düzenleme uygulaması olan FaceApp, birçok kullanıcının ırkçı olduğunu düşündüğü yeni filtrelerle arayüzünü güncellemek için ateş altında kaldı.

FaceApp, kullanıcı resimlerini düzenlemek için eğitilmiş bir algoritma kullandığından yaygın bir popülerlik kazandı. Uygulamayı kullanan kişiler, görüntülerini birkaç farklı şekilde düzenlemeyi seçebilir.

Kullanıcılar, görüntülerine bir gülümseme ekleyebilir, gençleşebilir, yaşlanabilir, cinsiyet değiştirebilir ve hatta tarzınızı değiştirebilir.

Ancak 'Hindistan', 'Asya', 'Siyah' ve 'Kafkas' etnik filtrelerinin eklenmesinin uygulamanın itibarı için zararlı olduğu kanıtlanmıştır. Bu filtreler sadece cilt tenini ve görünümünü değiştirmez, aynı zamanda saç stilini ve rengini de değiştirir.

Haberin Devamı: Bu Uygulama Mükemmel Selfie'yi Almanıza Yardımcı Olacak

CEO Yaroslav Goncharov şöyle bir açıklama yaptı: “Yeni tartışmalı filtreler birkaç saat içinde kaldırılacak”.

Kullanıcıların FaceApp sunucusundan kaldırılacakları yeni filtrelerden kurtulmak için uygulamalarını Google Play Store'dan güncellemelerine gerek kalmayacak.

“FaceApp'in 'etnik köken filtreleri' oldukça korkunç bir fikir. Gibi, belki de en kötü fikirlerden biri, ”diye ekledi bir Twitter kullanıcısı.

Başka bir kullanıcı, şirketini “korkunç yeni güncellemesiyle çıtayı ırkçı (artırılmış gerçeklik) ayarlamak” ile suçladı.

“Etnisite değişikliği filtreleri her yönüyle eşit olacak şekilde tasarlanmıştır. Onlarla ilişkili hiçbir olumlu veya olumsuz çağrışımları yoktur. Hatta aynı simge ile temsil edilirler, ”dedi Yaroslav Goncharov Verge'ye.

Ayrıca Oku: Bu Selfie'yi Çekmenin En Hızlı Yolu Olabilir

FaceApp ilk kez ırkçı olduğu için eleştiriye maruz kalmadı. Kullanıcılar daha önce 'sıcak' filtrenin herhangi bir resimde ten rengini otomatik olarak aydınlattığını bildirmişti.

Bu olay sırasında, şirketin CEO'su bu olayın ortaya çıktığını belirterek öne çıktı, çünkü algoritmaya adil tenli insanların görüntülerini kullanarak eğitim verildi ve sonuç olarak makine 'sıcak'ı adil ten ile ilişkilendirmeye başladı.

(IANS'dan gelen girdilerle)