「アイコラ」をご存知でしょうか?
そう、「アイドル コラージュ」の略語です。
多くは、好みのアイドルの顔と、〇ードグラビア嬢の身体を合体させ、好みのアイドル〇ード画像を作成する事からの言葉です。
まっ、自分1人で楽しむ分には無修正同様、許されるのかも知れませんが、一旦、ネットなんかに晒しますと、モノ寄りましては、恐らく刑事罰対象に…?
で、このアイコラ画像を作成するのには、チョイとした技が必要なんですね…。
明らかに貼り付けた画像よりも、自然な感じに仕上がったモノの方が、そりゃぁ抜ける訳で…(笑)
そこに、作者の愛情と技術が、怨念のように注ぎ込まれるのです。(爆)
ところが、昨今は…と言いますと、AIの技術は恐ろしいモノで、技も愛も不要。
画像さえあれば、いとも簡単にマッパに…。
そう、服を脱がすアプリが出回っているとか?
当然、マッパになる女性への同意は不要…。
この記事では、検索できない為か、アプリの正式名称は不記載でしたが、下記、呼称しております。
「〇がすアプリ」
「〇ード化アプリ」
又、このようにして出来上がった画像を「非同意性的画像(NCII)」と呼称。
更に、それらの産業を「バーチャル脱衣産業」と呼称。
それらのサービスを提供しているサイトに寄りますと、現在、34社が存在。
或る企業のキャッチコピーは、「気になる女の子を片っ端から〇がせよう」…って、マジに犯罪ワードでは?
兎に角、AI導入により、技が一切不要で、誰でも簡単にオキニのショットが可能と言う所に、人気急上昇。
サイト訪問者数も9月だけで2,400万人とのコト。
ストーカーや元カレ等に悪用されますと、何処で撮られたかも知らないまま、マッパの画像が出回る恐れも…?
まして、AI作成の為、リアルかフェイクかの判定も難しいようです。
類似した過去の犯罪では、米国の某女優がハッキングされ、自身の〇ード画像を盗まれネットに晒された事件が発生。
犯人は特定され、禁固8カ月の実刑判決を受けたそうですが…。
被害者に取りましては、性暴力と同じでしょうからね…?
米連邦捜査局(FBI)は、これらの画像が恐喝に利用されているとして、注意喚起を促しているようです。
てか、普通に歩いていても、何処で撮られたかも分からないのに、注意しようが有りませんよね?
更に、この手の犯人は、盗撮だけでなく、ネットサーフィンから好みの被写体を探すヤカラも居るのだとか?
更に、この手の犯人は留まる事を知らず、未成年への魔の手も…。
実際、スペインでは、20人以上の未成年者が被害に…。
その少女たちの殆どは、自身のSNSに自身でうpした着衣画像が加工されていたそうです。
こちらは、犯人が集う仲間のSNSで共有されていたとのコト。
米国でも、とある州の男子高校生が、同級生の着衣被写体を加工し、保管していたことが発覚。
別の州では、精神科医が子供の患者を同様に加工したとして、児童〇ルノ違反で逮捕起訴。
但し、被写体が大人の場合は、検挙対象になって居ないようで、米当局も法整備を検討し始めているとか?
これに先駆け、SNSを運営する企業側は、特定のタグ(#)にブロック機能を設けているそうです。
グーグルも、このサービス提供先や、アプリ広告の削除に乗り出したとのコト。
まぁ、しかし、盗撮もそうですが、見たいと言う気持ちが、カメラをドンドンと小型化し…。
スマホのカメラアプリから、シャッター音を消し…。
特殊なアプリで、盗撮画像を別保存し…。
今度は、着衣画像をマッパに…ですか?
そんなエネルギーを、他に使えないモノでしょうか!
てか、まだ、日本へは未上陸?
ブログ一覧 |
話題 | 日記
Posted at
2023/12/26 07:12:23