Traduzir "simulated neural networks" para coreano

Mostrando 50 de 50 traduções da frase "simulated neural networks" de inglês para coreano

Traduções de simulated neural networks

"simulated neural networks" em inglês pode ser traduzido nas seguintes palavras/frases coreano:

simulated 가상 디지털
networks 관리 네트워크 데이터 디지털 또한 서비스 성능 소셜 시스템 연결 연결된 요구 인터넷 장치 컴퓨터

Tradução de inglês para coreano de simulated neural networks

inglês
coreano

EN Neural networks, also known as artificial neural networks (ANNs) or simulated neural networks (SNNs), are a subset of machine learning and are at the heart of deep learning algorithms

KO 인공 신경망(ANN) 또는 시뮬레이션 신경망(SNN)이라고도 하는 신경망은 머신 러닝의 서브세트이며, 딥 러닝 알고리즘의 핵심입니다

Transliteração ingong singyeongmang(ANN) ttoneun simyulleisyeon singyeongmang(SNN)ilagodo haneun singyeongmang-eun meosin leoning-ui seobeuseteu-imyeo, dib leoning algolijeum-ui haegsim-ibnida

EN To learn more about the differences between neural networks and other forms of artificial intelligence,  like machine learning, please read the blog post “AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What’s the Difference?”

KO 머신 러닝 등 인공지능의 다른 형태와 신경망 간의 차이점에 대해 자세히 알아보려면 블로그 포스트 "AI 대 머신 러닝 vs. 딥 러닝 대 신경망: 차이점"을 참조하세요.

Transliteração meosin leoning deung ingongjineung-ui daleun hyeongtaewa singyeongmang gan-ui chaijeom-e daehae jasehi al-abolyeomyeon beullogeu poseuteu "AI dae meosin leoning vs. dib leoning dae singyeongmang: chaijeom"eul chamjohaseyo.

EN Convolutional neural networks (CNNs) are similar to feedforward networks, but they’re usually utilized for image recognition, pattern recognition, and/or computer vision

KO CNN(Convolutional neural network)는 피드포워드 네트워크와 유사하지만, 이는 일반적으로 이미지 인식, 패턴 인식 및/또는 컴퓨터 비전에 활용됩니다

Transliteração CNN(Convolutional neural network)neun pideupowodeu neteuwokeuwa yusahajiman, ineun ilbanjeog-eulo imiji insig, paeteon insig mich/ttoneun keompyuteo bijeon-e hwal-yongdoebnida

EN Deep learning, also known as deep neural learning or deep neural network, is an artificial intelligence (AI) function that mimics how the human brain works to process data and create patterns that facilitate decision making.

KO 심층 신경 학습 또는 심층 신경망이라고도 하는 딥 러닝은 인간의 두뇌가 데이터를 처리하고 의사결정을 용이하게 하는 패턴 생성 방식을 모방하는 인공 지능(AI) 기능입니다.

Transliteração simcheung singyeong hagseub ttoneun simcheung singyeongmang-ilagodo haneun dib leoning-eun ingan-ui dunoega deiteoleul cheolihago uisagyeoljeong-eul yong-ihage haneun paeteon saengseong bangsig-eul mobanghaneun ingong jineung(AI) gineung-ibnida.

EN The perceptron is the oldest neural network, created by Frank Rosenblatt in 1958. It has a single neuron and is the simplest form of a neural network:

KO 퍼셉트론(perceptron)은 1958년에 Frank Rosenblatt이 만든 가장 오래된 신경망입니다. 이는 하나의 뉴런을 보유하며, 신경망의 가장 단순한 형태입니다.

Transliteração peosebteulon(perceptron)eun 1958nyeon-e Frank Rosenblatti mandeun gajang olaedoen singyeongmang-ibnida. ineun hanaui nyuleon-eul boyuhamyeo, singyeongmang-ui gajang dansunhan hyeongtaeibnida.

EN A neural network that only has two or three layers is just a basic neural network.

KO 단지 2개 또는 3개의 계층만을 갖는 신경망은 그저 기본 신경망에 불과합니다.

Transliteração danji 2gae ttoneun 3gaeui gyecheungman-eul gajneun singyeongmang-eun geujeo gibon singyeongmang-e bulgwahabnida.

EN Deep learning creates artificial neural networks and layers based on how the human brain works

KO 딥 러닝은 인간의 뇌가 작동하는 방식을 기반으로 인공 신경망과 계층을 생성합니다

Transliteração dib leoning-eun ingan-ui noega jagdonghaneun bangsig-eul giban-eulo ingong singyeongmang-gwa gyecheung-eul saengseonghabnida

EN Going back to its origins, deep learning first appeared in 1943 when Warren McCulloch and Walter Pitts used math and algorithms to create a computing system that replicated neural networks

KO 그 기원으로 거슬러 올라가보면, 딥 러닝은 1943년 Warren McCulloch와 Walter Pitts가 수학 및 알고리즘을 사용하여 신경망을 복제하는 컴퓨팅 시스템을 만들었을 때 처음 나타났습니다

Transliteração geu giwon-eulo geoseulleo ollagabomyeon, dib leoning-eun 1943nyeon Warren McCulloch-wa Walter Pittsga suhag mich algolijeum-eul sayonghayeo singyeongmang-eul bogjehaneun keompyuting siseutem-eul mandeul-eoss-eul ttae cheoeum natanassseubnida

EN Deep learning bases its work on artificial neural networks that are created to imitate human thinking

KO 딥 러닝은 인간의 사고를 모방하기 위해 만들어진 인공 신경망을 기반으로 합니다

Transliteração dib leoning-eun ingan-ui sagoleul mobanghagi wihae mandeul-eojin ingong singyeongmang-eul giban-eulo habnida

EN Until recently, these neural networks had limited computing power resulting in limited complexity.

KO 최근까지도 이러한 신경망은 컴퓨팅 성능이 제한되어 복잡도에서 제한을 받았습니다.

Transliteração choegeunkkajido ileohan singyeongmang-eun keompyuting seongneung-i jehandoeeo bogjabdo-eseo jehan-eul bad-assseubnida.

EN With big data analytics advancing in leaps and bounds, neural networks have been getting more complex and sophisticated

KO 데이터 분석이 급속히 발전함에 따라 신경망은 더욱 복잡하고 정교해지고 있습니다

Transliteração big deiteo bunseog-i geubsoghi baljeonham-e ttala singyeongmang-eun deoug bogjabhago jeong-gyohaejigo issseubnida

EN Models continue to be trained with large sets of labelled data and neural networks that have a multitude of layers

KO 모델은 레이블이 지정된 대규모 데이터 세트와 여러 계층이있는 신경망으로 계속 훈련됩니다

Transliteração model-eun leibeul-i jijeongdoen daegyumo deiteo seteuwa yeoleo gyecheung-iissneun singyeongmang-eulo gyesog hunlyeondoebnida

EN The dropout approach has a proven track record with enhancing the performance of neural networks as far as supervised learning goes, particularly in the sectors of speech recognition and document classification as well as computational biology.

KO 드롭 아웃 접근 방식은 특히 음성 인식 및 문서 분류 뿐만 아니라 계산생물학 분야에서 지도 학습이 진행되는 한 신경망의 성능을 향상시키는 입증된 실적을 가지고 있습니다.

Transliteração deulob aus jeobgeun bangsig-eun teughi eumseong insig mich munseo bunlyu ppunman anila gyesansaengmulhag bun-ya-eseo jido hagseub-i jinhaengdoeneun han singyeongmang-ui seongneung-eul hyangsangsikineun ibjeungdoen siljeog-eul gajigo issseubnida.

EN Later in the year we announced the acquisition of Matrix Mill, a team focused perfecting augmented reality occlusion by building deep neural networks that can infer 3D information about the surrounding world.

KO 향후 증강 현실 도구를 모든 사용자 및 개발자에게 제공하는 데 주력할 것입니다.

Transliteração hyanghu jeung-gang hyeonsil doguleul modeun sayongja mich gaebalja-ege jegonghaneun de julyeoghal geos-ibnida.

EN Take low-res images and use the neural networks of ArtEngine to increase the native resolution of the image – without losing quality.

KO 저해상도 이미지에 ArtEngine의 신경망 기술을 사용하면 품질은 그대로 유지하며 이미지의 기본 해상도를 향상시킵니다.

Transliteração jeohaesangdo imijie ArtEngine-ui singyeongmang gisul-eul sayonghamyeon pumjil-eun geudaelo yujihamyeo imijiui gibon haesangdoleul hyangsangsikibnida.

EN How Do Machines Learn? With neural networks to artificial intelligence.

KO 컴퓨터가 어떻게 학습할까요? 신경망을 통한 인공 지능으로의 발전.

Transliteração keompyuteoga eotteohge hagseubhalkkayo? singyeongmang-eul tonghan ingong jineung-euloui baljeon.

EN Would you like to learn more about neural networks and deep learning?

KO 신경망 그리고 딥 러닝에 대한 자세한 내용을 알아보시겠습니까?

Transliteração singyeongmang geuligo dib leoning-e daehan jasehan naeyong-eul al-abosigessseubnikka?

EN Our White Paper “Are Neural Networks the Future of Machine Vision?” reveals captivating insights into the world of machine learning. Do you have any further questions? Simply let us know – we're always glad to help!

KO 우리 백서인 “머신 비전의 미래는 신경망?” 은 머신 러닝 세계에 대한 매력적인 통찰을 보여줍니다. 좀 더 질문할 내용이 있으신가요? 도움이 필요하신가요? 언제든 연락주십시오.

Transliteração uli baegseoin “meosin bijeon-ui milaeneun singyeongmang?” eun meosin leoning segyee daehan maelyeogjeog-in tongchal-eul boyeojubnida. jom deo jilmunhal naeyong-i iss-eusingayo? doum-i pil-yohasingayo? eonjedeun yeonlagjusibsio.

EN Deep learning neural networks are ideally suited to take advantage of multiple processors, distributing workloads seamlessly and efficiently across different processor types and quantities

KO 딥 러닝 신경망은 여러 프로세서를 동시에 활용하기에 이상적이며 다양한 프로세서 유형과 수량에 걸쳐 워크로드를 원활하고 효율적으로 분산시킵니다

Transliteração dib leoning singyeongmang-eun yeoleo peuloseseoleul dongsie hwal-yonghagie isangjeog-imyeo dayanghan peuloseseo yuhyeong-gwa sulyang-e geolchyeo wokeulodeuleul wonhwalhago hyoyuljeog-eulo bunsansikibnida

EN By training algorithms with millions of labeled images, deep learning neural networks can successfully identify subjects as well or even better than humans, leading to advanced capabilities like rapid facial recognition.

KO 레이블이 있는 수백만 개의 이미지로 알고리즘을 학습하는 딥 러닝 신경망은 피사체를 사람만큼 또는 사람보다 더 잘 식별할 수 있으며 빠른 얼굴 인식 등의 고급 기능도 구현할 수 있습니다.

Transliteração leibeul-i issneun subaegman gaeui imijilo algolijeum-eul hagseubhaneun dib leoning singyeongmang-eun pisacheleul salammankeum ttoneun salamboda deo jal sigbyeolhal su iss-eumyeo ppaleun eolgul insig deung-ui gogeub gineungdo guhyeonhal su issseubnida.

EN Amazon CodeGuru Reviewer is trained using rule mining and supervised machine learning models that use a combination of logistic regression and neural networks.

KO Amazon CodeGuru Reviewer는 로지스틱 회귀와 신경망 조합을 사용하는 규칙 마이닝 및 지도형 기계 학습 모델을 사용하여 학습됩니다.

Transliteração Amazon CodeGuru Reviewerneun lojiseutig hoegwiwa singyeongmang johab-eul sayonghaneun gyuchig maining mich jidohyeong gigye hagseub model-eul sayonghayeo hagseubdoebnida.

inglêscoreano
amazonamazon

EN From the phones in our pockets to the reality of self-driving cars, the consumer economy has started to tap into the power of deep learning?s neural networks

KO 휴대 전화기에서부터 자율 주행 자동차에 이르기까지 소비자 경제 분야도 딥러닝 신경망의 힘을 활용하기 시작했습니다

Transliteração hyudae jeonhwagieseobuteo jayul juhaeng jadongcha-e ileugikkaji sobija gyeongje bun-yado dibleoning singyeongmang-ui him-eul hwal-yonghagi sijaghaessseubnida

EN Neural Networks and Deep Learning | Coursera

KO 신경망 및 딥 러닝 | Coursera

Transliteração singyeongmang mich dib leoning | Coursera

EN Deep learning creates artificial neural networks and layers based on how the human brain works

KO 딥 러닝은 인간의 뇌가 작동하는 방식을 기반으로 인공 신경망과 계층을 생성합니다

Transliteração dib leoning-eun ingan-ui noega jagdonghaneun bangsig-eul giban-eulo ingong singyeongmang-gwa gyecheung-eul saengseonghabnida

EN Going back to its origins, deep learning first appeared in 1943 when Warren McCulloch and Walter Pitts used math and algorithms to create a computing system that replicated neural networks

KO 그 기원으로 거슬러 올라가보면, 딥 러닝은 1943년 Warren McCulloch와 Walter Pitts가 수학 및 알고리즘을 사용하여 신경망을 복제하는 컴퓨팅 시스템을 만들었을 때 처음 나타났습니다

Transliteração geu giwon-eulo geoseulleo ollagabomyeon, dib leoning-eun 1943nyeon Warren McCulloch-wa Walter Pittsga suhag mich algolijeum-eul sayonghayeo singyeongmang-eul bogjehaneun keompyuting siseutem-eul mandeul-eoss-eul ttae cheoeum natanassseubnida

EN Deep learning bases its work on artificial neural networks that are created to imitate human thinking

KO 딥 러닝은 인간의 사고를 모방하기 위해 만들어진 인공 신경망을 기반으로 합니다

Transliteração dib leoning-eun ingan-ui sagoleul mobanghagi wihae mandeul-eojin ingong singyeongmang-eul giban-eulo habnida

EN Until recently, these neural networks had limited computing power resulting in limited complexity.

KO 최근까지도 이러한 신경망은 컴퓨팅 성능이 제한되어 복잡도에서 제한을 받았습니다.

Transliteração choegeunkkajido ileohan singyeongmang-eun keompyuting seongneung-i jehandoeeo bogjabdo-eseo jehan-eul bad-assseubnida.

EN With big data analytics advancing in leaps and bounds, neural networks have been getting more complex and sophisticated

KO 데이터 분석이 급속히 발전함에 따라 신경망은 더욱 복잡하고 정교해지고 있습니다

Transliteração big deiteo bunseog-i geubsoghi baljeonham-e ttala singyeongmang-eun deoug bogjabhago jeong-gyohaejigo issseubnida

EN Models continue to be trained with large sets of labelled data and neural networks that have a multitude of layers

KO 모델은 레이블이 지정된 대규모 데이터 세트와 여러 계층이있는 신경망으로 계속 훈련됩니다

Transliteração model-eun leibeul-i jijeongdoen daegyumo deiteo seteuwa yeoleo gyecheung-iissneun singyeongmang-eulo gyesog hunlyeondoebnida

EN The dropout approach has a proven track record with enhancing the performance of neural networks as far as supervised learning goes, particularly in the sectors of speech recognition and document classification as well as computational biology.

KO 드롭 아웃 접근 방식은 특히 음성 인식 및 문서 분류 뿐만 아니라 계산생물학 분야에서 지도 학습이 진행되는 한 신경망의 성능을 향상시키는 입증된 실적을 가지고 있습니다.

Transliteração deulob aus jeobgeun bangsig-eun teughi eumseong insig mich munseo bunlyu ppunman anila gyesansaengmulhag bun-ya-eseo jido hagseub-i jinhaengdoeneun han singyeongmang-ui seongneung-eul hyangsangsikineun ibjeungdoen siljeog-eul gajigo issseubnida.

EN Neural networks are designed to work in a manner that is similar to the functioning of the brain

KO 신경망은 뇌의 기능과 유사한 방식으로 작동하도록 설계되었습니다

Transliteração singyeongmang-eun noeui gineung-gwa yusahan bangsig-eulo jagdonghadolog seolgyedoeeossseubnida

EN Just like stimuli causes the firing of neurons in the brain that enable action, neural networks use inputs with a threshold requirement

KO 자극이 뇌에서 행동을 가능하게 하는 신경 세포의 발화를 일으키는 것처럼 신경망은 임계값 요구 사항이 있는 입력을 사용합니다

Transliteração jageug-i noeeseo haengdong-eul ganeunghage haneun singyeong sepoui balhwaleul il-eukineun geoscheoleom singyeongmang-eun imgyegabs yogu sahang-i issneun iblyeog-eul sayonghabnida

EN Neural networks reflect the behavior of the human brain, allowing computer programs to recognize patterns and solve common problems in the fields of AI, machine learning, and deep learning.

KO 신경망은 인간 두뇌의 작동 방식을 반영함으로써 컴퓨터 프로그램이 패턴을 인식하고 AI, 머신 러닝 및 딥 러닝 분야의 일반적인 문제점을 해결할 수 있도록 지원합니다.

Transliteração singyeongmang-eun ingan dunoeui jagdong bangsig-eul ban-yeongham-eulosseo keompyuteo peulogeulaem-i paeteon-eul insighago AI, meosin leoning mich dib leoning bun-yaui ilbanjeog-in munjejeom-eul haegyeolhal su issdolog jiwonhabnida.

EN Artificial neural networks (ANNs) are comprised of a node layers, containing an input layer, one or more hidden layers, and an output layer

KO 인공 신경망(ANN)은 하나의 입력 계층, 하나 이상의 은닉 계층 및 하나의 출력 계층을 포함하는 노드 계층들로 구성되어 있습니다

Transliteração ingong singyeongmang(ANN)eun hanaui iblyeog gyecheung, hana isang-ui eunnig gyecheung mich hanaui chullyeog gyecheung-eul pohamhaneun nodeu gyecheungdeullo guseongdoeeo issseubnida

EN Neural networks rely on training data to learn and improve their accuracy over time

KO 신경망은 훈련 데이터에 의존하여 학습을 수행하고, 시간이 지나면서 자체 정확도를 개선합니다

Transliteração singyeongmang-eun hunlyeon deiteoe uijonhayeo hagseub-eul suhaenghago, sigan-i jinamyeonseo jache jeonghwagdoleul gaeseonhabnida

EN One of the most well-known neural networks is Google’s search algorithm.

KO 가장 널리 알려진 신경망 중 하나로 Google의 검색 알고리즘을 들 수 있습니다.

Transliteração gajang neolli allyeojin singyeongmang jung hanalo Google-ui geomsaeg algolijeum-eul deul su issseubnida.

EN As we start to think about more practical use cases for neural networks, like image recognition or classification, we’ll leverage supervised learning, or labeled datasets, to train the algorithm

KO 이미지 인식이나 분류와 같은 신경망의 보다 실용적인 유스케이스에 대해 생각하기 시작하면서, 우리는 알고리즘의 훈련을 위해 감독형 러닝이나 레이블형 데이터 세트를 활용합니다

Transliteração imiji insig-ina bunlyuwa gat-eun singyeongmang-ui boda sil-yongjeog-in yuseukeiseue daehae saeng-gaghagi sijaghamyeonseo, ulineun algolijeum-ui hunlyeon-eul wihae gamdoghyeong leoning-ina leibeulhyeong deiteo seteuleul hwal-yonghabnida

EN Neural networks can be classified into different types, which are used for different purposes

KO 신경망은 각각 서로 다른 용도에 사용되는 다양한 유형으로 분류될 수 있습니다

Transliteração singyeongmang-eun gaggag seolo daleun yongdo-e sayongdoeneun dayanghan yuhyeong-eulo bunlyudoel su issseubnida

EN While this isn’t a comprehensive list of types, the below would be representative of the most common types of neural networks that you’ll come across for its common use cases:

KO 비록 포괄적인 유형 목록이 아니지만, 아래는 일반적인 유스케이스에서 접할 수 있는 가장 일반적인 유형의 신경망을 대표적으로 예시합니다.

Transliteração bilog pogwaljeog-in yuhyeong moglog-i anijiman, alaeneun ilbanjeog-in yuseukeiseueseo jeobhal su issneun gajang ilbanjeog-in yuhyeong-ui singyeongmang-eul daepyojeog-eulo yesihabnida.

EN Feedforward neural networks, or multi-layer perceptrons (MLPs), are what we’ve primarily been focusing on within this article

KO 피드포워드 신경망 또는 MLP(multi-layer perceptron)은 이 기사에서 집중적으로 다루고 있는 신경망입니다

Transliteração pideupowodeu singyeongmang ttoneun MLP(multi-layer perceptron)eun i gisa-eseo jibjungjeog-eulo dalugo issneun singyeongmang-ibnida

EN While these neural networks are also commonly referred to as MLPs, it’s important to note that they are actually comprised of sigmoid neurons, not perceptrons, as most real-world problems are nonlinear

KO 이러한 신경망을 흔히 MLP라고도 부르지만, 대부분의 실세계 문제가 비선형이기 때문에 이는 실제로 퍼셉트론이 아닌 시그모이드 뉴런으로 구성되어 있다는 점을 유념하세요

Transliteração ileohan singyeongmang-eul heunhi MLPlagodo buleujiman, daebubun-ui silsegye munjega biseonhyeong-igi ttaemun-e ineun siljelo peosebteulon-i anin sigeumoideu nyuleon-eulo guseongdoeeo issdaneun jeom-eul yunyeomhaseyo

EN Data usually is fed into these models to train them, and they are the foundation for computer vision, natural language processing, and other neural networks.

KO 데이터는 일반적으로 이러한 모델의 훈련을 위해 이에 공급되며, 이는 컴퓨터 비전, 자연어 처리 및 기타 신경망의 기반입니다.

Transliteração deiteoneun ilbanjeog-eulo ileohan model-ui hunlyeon-eul wihae ie gong-geubdoemyeo, ineun keompyuteo bijeon, jayeon-eo cheoli mich gita singyeongmang-ui giban-ibnida.

EN Deep Learning and neural networks tend to be used interchangeably in conversation, which can be confusing

KO 딥 러닝과 신경망은 대화에서 종종 상호교환적으로 사용되며 혼동될 수 있습니다

Transliteração dib leoning-gwa singyeongmang-eun daehwa-eseo jongjong sanghogyohwanjeog-eulo sayongdoemyeo hondongdoel su issseubnida

EN The history of neural networks is longer than most people think

KO 신경망의 역사는 대부분의 사람들이 생각하는 것보다 장구합니다

Transliteração singyeongmang-ui yeogsaneun daebubun-ui salamdeul-i saeng-gaghaneun geosboda jang-guhabnida

EN 1974: While numerous researchers contributed to the idea of backpropagation, Paul Werbos was the first person in the US to note its application within neural networks within his PhD thesis (PDF, 8.1 MB) (link resides outside IBM).

KO 1974년: 많은 연구자들이 역전달이라는 아이디어에 기여한 반면, Paul Werbos는 자신의 PhD 논문(PDF, 8.1MB)(IBM 외부 링크)에서 신경망 내의 이의 적용법을 알렸던 최초의 미국인이었습니다.

Transliteração 1974nyeon: manh-eun yeongujadeul-i yeogjeondal-ilaneun aidieoe giyeohan banmyeon, Paul Werbosneun jasin-ui PhD nonmun(PDF, 8.1MB)(IBM oebu lingkeu)eseo singyeongmang naeui iui jeog-yongbeob-eul allyeossdeon choechoui migug-in-ieossseubnida.

inglêscoreano
pdfpdf
ibmibm

EN Using Marvelous, the team recreated the real-world costumes and simulated the physical behavior of the cloth, the same as for a feature film

KO 제작 팀은 Marvelous Designer를 사용해 장편 영화와 마찬가지로 실제 의상을 재현하고 천의 물리적 동작을 시뮬레이션했습니다

Transliteração jejag tim-eun Marvelous Designerleul sayonghae jangpyeon yeonghwawa machangajilo silje uisang-eul jaehyeonhago cheon-ui mullijeog dongjag-eul simyulleisyeonhaessseubnida

EN In a test phase, applications are simulated using a prototype implementation on a hardware platform such as a camera

KO 테스트 단계에서는 카메라와 같은 하드웨어 플랫폼에서 프로토타입 구현을 사용하여 애플리케이션을 시뮬레이션합니다

Transliteração teseuteu dangyeeseoneun kamelawa gat-eun hadeuweeo peullaespom-eseo peulototaib guhyeon-eul sayonghayeo aepeullikeisyeon-eul simyulleisyeonhabnida

EN Real-world applications are simulated to predict device, system, and network performance under realistic load conditions

KO 실제 부하 조건에서 디바이스, 시스템, 네트워크 성능을 예측할 수 있도록 실제 어플리케이션이 시뮬레이션됩니다

Transliteração silje buha jogeon-eseo dibaiseu, siseutem, neteuwokeu seongneung-eul yecheughal su issdolog silje eopeullikeisyeon-i simyulleisyeondoebnida

EN Respond to simulated out-of-gas emergency situations.

KO 연출한 공기 고갈 비상 사태에 대응하기

Transliteração yeonchulhan gong-gi gogal bisang sataee daeeunghagi

EN Virtual reality (VR) replaces the real world with a simulated one in 3D, transforming a 2D design into an interactive, immersive digital model.

KO 가상 현실(VR)은 실제 환경을 3D로 시뮬레이션된 환경으로 대체하여 2D 설계를 대화식 몰입형 디지털 모델로 변환합니다.

Transliteração gasang hyeonsil(VR)eun silje hwangyeong-eul 3Dlo simyulleisyeondoen hwangyeong-eulo daechehayeo 2D seolgyeleul daehwasig mol-ibhyeong dijiteol modello byeonhwanhabnida.

inglêscoreano
vrvr

Mostrando 50 de 50 traduções