حمله علی خسروی به مهدی طارمی؛ شبیه سازی نکن برادر + عکس
تاریخ انتشار: ۳۰ آبان ۱۴۰۲ | کد خبر: ۳۹۱۳۶۹۹۴
علی خسروی کارشناس داوری بابت تلاش مهدی طارمی برای گرفتن پنالتی از داور، به این ملیپوش اعتراض کرد.
به گزارش طرفداری، علی خسروی، کارشناس داوری کشورمان با انتشار یک استوری به حرکت امروز مهدی طارمی معترض شد:
از دست ندهید ????????????????????????
پرونده مالیات دو مربی خارجی پرسپولیس در کمیته انضباطی چرا جذب کریستیانو رونالدو و نیمار هزینهای برای النصر و الهلال نداشته است؟ هیجان گابریل مارتینلی از بازی مقابل مسی: او را فقط در بازیهای کامپیوتری دیده بودم شب جنجالی فوتبال برتر؛ افشاریان و فرار از سوالات میثاقی با یاد کردن از عادل فردوسی پور روی کین خطاب به مک آتیر: آن آرنجی که به صورتت زدم، حقت بود؛ کاری کردم که دهانت را ببندی!.بیشتر بخوانید: اخباری که در وبسایت منتشر نمیشوند!
منبع: طرفداری
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.tarafdari.com دریافت کردهاست، لذا منبع این خبر، وبسایت «طرفداری» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۳۶۹۹۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
فناوری شبیه سازی Voice Engine چه خطراتی دارد؟
آزمایشکنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صداها توسط هوش مصنوعی ایجاد شدهاند.
اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده میکند.
OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمیکند.
شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک میتواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.
شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.
این شرکت در بیانیهای گفت: ما میدانیم که تولید صوتی که صدای مردم را تقلید میکند، خطرات قابلتوجهی را به همراه دارد، و بهویژه در سالهای انتخاباتی مهم است.
OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوهای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".
همچنین توضیح داد که آزمایشکنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صداها توسط هوش مصنوعی ایجاد شدهاند.
تعدادی از استارتآپها در حال حاضر فناوری بازتولید صدا را میفروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیوهای سرگرمی است.
منبع: المیادین
باشگاه خبرنگاران جوان علمی پزشکی فناوری