ਡੀਪਫੇਕ
ਡੀਪਫੇਕ ਇਹ ਇਕ ਤਰ੍ਹਾਂ ਦਾ ਸਾਫਟਵੇਅਰ ਹੁੰਦਾ ਹੈ, ਜੋ ਚਿਹਰੇ ਦੀ ਦਿੱਖ ਨੂੰ ਬਦਲ ਦਿੰਦਾ ਹੈ। ਡੀਪਫੇਕ ਬਹੁਤ ਹੀ ਤਾਕਤਵਰ ਤਕਨੀਕ (ਆਰਟੀਫਿਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ) (ਮਸਨੂਈ ਬੁੱਧੀ) ਦੇ ਜ਼ਰੀਏ ਆਵਾਜ਼ ਤੇ ਵੀਡੀਓ ਦੋਵਾਂ ਨੂੰ ਬਦਲ ਕਰ ਦਿੰਦਾ ਹੈ। ਫੋਟੋ ਬਦਲਣੀ ਤਾਂ ਪਹਿਲਾਂ ਵੀ ਬਹੁਤ ਆਮ ਸੀ ਪਰ ਇਸ ਵਿਚ ਆਵਾਜ਼ ਵੀ ਕਿਸੇ ਦੇ ਉੱਪਰ ਕਿਸੇ ਹੋਰ ਦੀ ਲਗਾ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ ਤੇ ਵੀਡੀਓ ਵਿਚ ਵੀ ਚਿਹਰੇ ਬਦਲ ਦਿੱਤੇ ਜਾਂਦੇ ਹਨ।ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਇੱਕ ਵਿਅਕਤੀ ਦੀ ਸਮਾਨਤਾ ਨੂੰ ਦੂਜੇ ਵਿਅਕਤੀ ਦੀ ਸਮਾਨਤਾ ਨਾਲ ਬਦਲਣ ਲਈ ਡਿਜ਼ੀਟਲ ਤੌਰ 'ਤੇ ਹੇਰਾਫੇਰੀ ਕੀਤੀ ਗਈ ਹੈ। ਡੀਪਫੇਕ ਡੂੰਘੇ ਉਤਪੰਨ ਤਰੀਕਿਆਂ ਦੁਆਰਾ ਚਿਹਰੇ ਦੀ ਦਿੱਖ ਦੀ ਹੇਰਾਫੇਰੀ ਹੈ। [1] ਹਾਲਾਂਕਿ ਜਾਅਲੀ ਸਮਗਰੀ ਬਣਾਉਣ ਦਾ ਕੰਮ ਕੋਈ ਨਵਾਂ ਨਹੀਂ ਹੈ, ਡੀਪ ਫੇਕਸ ਵਿਜ਼ੂਅਲ ਅਤੇ ਆਡੀਓ ਸਮੱਗਰੀ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਨ ਜਾਂ ਤਿਆਰ ਕਰਨ ਲਈ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਅਤੇ ਨਕਲੀ ਬੁੱਧੀ ਤੋਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨੀਕਾਂ ਦਾ ਲਾਭ ਉਠਾਉਂਦੇ ਹਨ ਜੋ ਵਧੇਰੇ ਆਸਾਨੀ ਨਾਲ ਧੋਖਾ ਦੇ ਸਕਦੇ ਹਨ। [2] [3] ਡੀਪ ਫੇਕ ਬਣਾਉਣ ਲਈ ਵਰਤੀਆਂ ਜਾਣ ਵਾਲੀਆਂ ਮੁੱਖ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਵਿਧੀਆਂ ਡੂੰਘੀ ਸਿਖਲਾਈ 'ਤੇ ਅਧਾਰਤ ਹਨ ਅਤੇ ਸਿਖਲਾਈ ਦੇਣ ਵਾਲੇ ਜਨਰੇਟਿਵ ਨਿਊਰਲ ਨੈਟਵਰਕ ਆਰਕੀਟੈਕਚਰ, ਜਿਵੇਂ ਕਿ ਆਟੋਐਨਕੋਡਰ, [2] ਜਾਂ ਜਨਰੇਟਿਵ ਐਡਵਰਸੈਰੀਅਲ ਨੈੱਟਵਰਕ (GANs) ਨੂੰ ਸ਼ਾਮਲ ਕਰਦੀਆਂ ਹਨ। [4] [5] ਬਦਲੇ ਵਿੱਚ ਚਿੱਤਰ ਫੋਰੈਂਸਿਕ ਦਾ ਖੇਤਰ ਹੇਰਾਫੇਰੀ ਵਾਲੀਆਂ ਤਸਵੀਰਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਲਈ ਤਕਨੀਕਾਂ ਵਿਕਸਿਤ ਕਰਦਾ ਹੈ। [6]
ਡੀਪਫੇਕ ਨੇ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ, ਮਸ਼ਹੂਰ ਅਸ਼ਲੀਲ ਵੀਡੀਓ, ਬਦਲਾ ਲੈਣ ਵਾਲੇ ਪੋਰਨ, ਜਾਅਲੀ ਖ਼ਬਰਾਂ, ਧੋਖਾਧੜੀ, ਧੱਕੇਸ਼ਾਹੀ, ਅਤੇ ਵਿੱਤੀ ਧੋਖਾਧੜੀ ਵਿੱਚ ਉਹਨਾਂ ਦੀ ਸੰਭਾਵੀ ਵਰਤੋਂ ਲਈ ਵਿਆਪਕ ਧਿਆਨ ਖਿੱਚਿਆ ਹੈ। [7] [8] [9] [10] ਡੂੰਘੇ ਫੇਕ ਦੁਆਰਾ ਗਲਤ ਜਾਣਕਾਰੀ ਅਤੇ ਨਫ਼ਰਤ ਭਰੇ ਭਾਸ਼ਣ ਦੇ ਫੈਲਣ ਨਾਲ ਲੋਕਤਾਂਤਰਿਕ ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਮੁੱਖ ਕਾਰਜਾਂ ਅਤੇ ਨਿਯਮਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਹੈ ਜੋ ਉਹਨਾਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਨ ਵਾਲੇ ਫੈਸਲਿਆਂ ਵਿੱਚ ਹਿੱਸਾ ਲੈਣ, ਸਮੂਹਿਕ ਏਜੰਡਿਆਂ ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਨ ਅਤੇ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈਣ ਦੁਆਰਾ ਰਾਜਨੀਤਿਕ ਇੱਛਾ ਨੂੰ ਪ੍ਰਗਟ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਵਿੱਚ ਦਖਲਅੰਦਾਜ਼ੀ ਕਰਕੇ ਹੈ। [11]ਇਸ ਨੇ ਉਦਯੋਗ ਅਤੇ ਸਰਕਾਰ ਦੋਵਾਂ ਤੋਂ ਉਹਨਾਂ ਦੀ ਵਰਤੋਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਅਤੇ ਸੀਮਤ ਕਰਨ ਲਈ ਜਵਾਬ ਪ੍ਰਾਪਤ ਕੀਤੇ ਹਨ। [12] [13]
ਪਰੰਪਰਾਗਤ ਮਨੋਰੰਜਨ ਤੋਂ ਲੈ ਕੇ ਗੇਮਿੰਗ ਤੱਕ, ਡੀਪਫੇਕ ਟੈਕਨਾਲੋਜੀ ਤੇਜ਼ੀ ਨਾਲ ਵਿਸ਼ਵਾਸਯੋਗ [14] ਅਤੇ ਲੋਕਾਂ ਲਈ ਉਪਲਬਧ ਹੋਣ ਲਈ ਵਿਕਸਤ ਹੋਈ ਹੈ, ਜਿਸ ਨਾਲ ਮਨੋਰੰਜਨ ਅਤੇ ਮੀਡੀਆ ਉਦਯੋਗਾਂ ਵਿੱਚ ਵਿਘਨ ਪੈਂਦਾ ਹੈ। [15]
ਵੀ ਆਈ ਪੀ
ਸੋਧੋਇਕੱਲਾ ਭਾਰਤ ਹੀ ਨਹੀਂ ਡੀਪਫੇਕ ਦਾ ਸ਼ਿਕਾਰ ਫੇਸਬੁੱਕ ਦੇ ਮਾਰਕ ਜ਼ੁਕਰਬਰਗ, ਅਮਰੀਕੀ ਰਾਸ਼ਟਰਪਤੀ ਜੋ ਬਾਈਡਨ, ਬਰਾਕ ਓਬਾਮਾ, ਡੌਨਲਡ ਟਰੰਪ, ਭਾਰਤ ਦੇ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਆਦਿ ਵੀ ਹੋ ਚੁੱਕੇ ਹਨ। ਕਹਿਣ ਤੋਂ ਭਾਵ ਹੈ ਕਿ ਡੀਪਫੇਕ ਤਕਨੀਕ ਬਾਹਰਲੇ ਮੁਲਕਾਂ, ਜੋ ਕਿ ਤਕਨਾਲੋਜੀ ਵਿਚ ਹਰ ਪਾਸਿਉਂ ਬਹੁਤ ਤਰੱਕੀ ਕਰ ਚੁੱਕੇ ਹਨ, ਉਨ੍ਹਾਂ ਨੂੰ ਵੀ ਆਪਣਾ ਸ਼ਿਕਾਰ ਬਣਾ ਰਹੀ ਹੈ। ਗੇਮਾਂ, ਮਨੋਰੰਜਨ, ਪੈਸੇ ਦੇ ਲੈਣ-ਦੇਣ, ਗਾਲੀ-ਗਲੋਚ ਵਾਲੀ ਸਮੱਗਰੀ ਇਸ ਰਾਹੀਂ ਫੈਲਾਈ ਜਾਂਦੀ ਹੈ। ਗੱਲ ਕੀ ਹਰ ਖੇਤਰ ਵਿਚ ਡੀਪਫੇਕ ਨੇ ਆਪਣੇ ਪੈਰ ਜੋ ਪਸਾਰ ਲਏ ਹਨ। ਤਕਨਾਲੋਜੀ ਦੇ ਮਾੜੇ ਪਸਾਰ ਤੋਂ ਅਸਲ ਵਿਚ ਅੱਜਕਲ੍ਹ ਕੋਈ ਨਹੀਂ ਬਚ ਸਕਦਾ, ਨਾ ਕੋਈ ਆਮ ਇਨਸਾਨ ਤੇ ਨਾ ਕੋਈ ਵੱਡੇ ਅਹੁਦੇ ਵਾਲਾ। ਉਂਜ ਇਸ ਨਾਲ ਨਜਿੱਠਣ ਲਈ ਗੂਗਲ ਤੇ ਮੇਟਾ ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਨੇ ਕਾਫ਼ੀ ਤਰੀਕਿਆਂ ਦੇ ਐਲਾਨ ਵੀ ਕੀਤੇ ਨੇ, ਤਾਂ ਕਿ ਜਿਸ ਨਾਲ ਡੀਪਫੇਕ ਨੂੰ ਨੱਥ ਪਾਈ ਜਾਵੇ।
ਹਵਾਲੇ
ਸੋਧੋ- ↑ Juefei-Xu, Felix; Wang, Run; Huang, Yihao; Guo, Qing; Ma, Lei; Liu, Yang (2022-07-01). "Countering Malicious DeepFakes: Survey, Battleground, and Horizon". International Journal of Computer Vision (in ਅੰਗਰੇਜ਼ੀ). 130 (7): 1678–1734. doi:10.1007/s11263-022-01606-8. ISSN 1573-1405. PMC 9066404. PMID 35528632.Juefei-Xu, Felix; Wang, Run; Huang, Yihao; Guo, Qing; Ma, Lei; Liu, Yang (1 July 2022). "Countering Malicious DeepFakes: Survey, Battleground, and Horizon". International Journal of Computer Vision. 130 (7): 1678–1734. doi:10.1007/s11263-022-01606-8. ISSN 1573-1405. PMC 9066404. PMID 35528632.
- ↑ 2.0 2.1 Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?" (PDF). Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006.Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?" (PDF). Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006. S2CID 213818098.
- ↑ Waldrop, M. Mitchell (16 March 2020). "Synthetic media: The real trouble with deepfakes". Knowable Magazine (in ਅੰਗਰੇਜ਼ੀ). Annual Reviews. doi:10.1146/knowable-031320-1. Retrieved 19 December 2022.Waldrop, M. Mitchell (16 March 2020). "Synthetic media: The real trouble with deepfakes". Knowable Magazine. Annual Reviews. doi:10.1146/knowable-031320-1. Retrieved 19 December 2022.
- ↑ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (in ਅੰਗਰੇਜ਼ੀ). Archived from the original on 16 June 2019. Retrieved 14 November 2018.Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian. Archived from the original on 16 June 2019. Retrieved 14 November 2018.
- ↑ Charleer, Sven (2019-05-17). "Family fun with deepfakes. Or how I got my wife onto the Tonight Show". Medium (in ਅੰਗਰੇਜ਼ੀ). Archived from the original on 11 February 2018. Retrieved 2019-11-08.Charleer, Sven (17 May 2019). "Family fun with deepfakes. Or how I got my wife onto the Tonight Show". Medium. Archived from the original on 11 February 2018. Retrieved 8 November 2019.
- ↑ Farid, Hany (15 September 2019). "Image Forensics". Annual Review of Vision Science (in ਅੰਗਰੇਜ਼ੀ). 5 (1): 549–573. doi:10.1146/annurev-vision-091718-014827. ISSN 2374-4642. PMID 31525144.Farid, Hany (15 September 2019). "Image Forensics". Annual Review of Vision Science. 5 (1): 549–573. doi:10.1146/annurev-vision-091718-014827. ISSN 2374-4642. PMID 31525144. S2CID 263558880.
- ↑ Banks, Alec (2018-02-20). "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety (in ਅੰਗਰੇਜ਼ੀ (ਅਮਰੀਕੀ)). Archived from the original on 14 July 2021. Retrieved 2018-02-20.Banks, Alec (20 February 2018). "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety. Archived from the original on 14 July 2021. Retrieved 20 February 2018.
- ↑ Christian, Jon. "Experts fear face swapping tech could start an international showdown". The Outline (in ਅੰਗਰੇਜ਼ੀ). Archived from the original on 16 January 2020. Retrieved 2018-02-28.Christian, Jon. "Experts fear face swapping tech could start an international showdown". The Outline. Archived from the original on 16 January 2020. Retrieved 28 February 2018.
- ↑ Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (in ਅੰਗਰੇਜ਼ੀ (ਅਮਰੀਕੀ)). ISSN 0362-4331. Archived from the original on 18 June 2019. Retrieved 2018-03-24.Roose, Kevin (4 March 2018). "Here Come the Fake Videos, Too". The New York Times. ISSN 0362-4331. Archived from the original on 18 June 2019. Retrieved 24 March 2018.
- ↑ Schreyer, Marco; Sattarov, Timur (October 2019). "Adversarial Learning of Deepfakes in Accounting" (in ਅੰਗਰੇਜ਼ੀ). arXiv:1910.03810 [cs.LG].Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (October 2019). "Adversarial Learning of Deepfakes in Accounting". arXiv:1910.03810 [cs.LG].
- ↑ Pawelec, M (2022). "Deepfakes and Democracy (Theory): How Synthetic Audio-Visual Media for Disinformation and Hate Speech Threaten Core Democratic Functions". Digital Society: Ethics, Socio-legal and Governance of Digital Technology. 1 (2): 19. doi:10.1007/s44206-022-00010-6. PMC 9453721. PMID 36097613.Pawelec, M (2022). "Deepfakes and Democracy (Theory): How Synthetic Audio-Visual Media for Disinformation and Hate Speech Threaten Core Democratic Functions". Digital Society: Ethics, Socio-legal and Governance of Digital Technology. 1 (2): 19. doi:10.1007/s44206-022-00010-6. PMC 9453721. PMID 36097613.
- ↑ Ghoshal, Abhimanyu (2018-02-07). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". The Next Web (in ਅੰਗਰੇਜ਼ੀ (ਅਮਰੀਕੀ)). Archived from the original on 20 December 2019. Retrieved 2019-11-09.Ghoshal, Abhimanyu (7 February 2018). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". The Next Web. Archived from the original on 20 December 2019. Retrieved 9 November 2019.
- ↑ Clarke, Yvette D. (2019-06-28). "H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019". www.congress.gov. Archived from the original on 17 December 2019. Retrieved 2019-10-16.Clarke, Yvette D. (28 June 2019). "H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019". www.congress.gov. Archived from the original on 17 December 2019. Retrieved 16 October 2019.
- ↑ Caramancion, Kevin Matthe (2021-04-21). "The Demographic Profile Most at Risk of being Disinformed". 2021 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). IEEE. pp. 1–7. doi:10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7.Caramancion, Kevin Matthe (21 April 2021). "The Demographic Profile Most at Risk of being Disinformed". 2021 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). IEEE. pp. 1–7. doi:10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID 234499888.
- ↑ Lalla, Vejay; Mitrani, Adine; Harned, Zach. "Artificial Intelligence: Deepfakes in the Entertainment Industry". World Intellectual Property Organization (in ਅੰਗਰੇਜ਼ੀ). Retrieved 2022-11-08.Lalla, Vejay; Mitrani, Adine; Harned, Zach. "Artificial Intelligence: Deepfakes in the Entertainment Industry". World Intellectual Property Organization. Retrieved 8 November 2022.