인식기

Speech-to-Text V2는 인식기라는 Google Cloud 리소스를 지원합니다. 인식기는 저장되고 재사용 가능한 인식 구성을 나타냅니다. 이를 사용하여 애플리케이션의 스크립트 작성 또는 트래픽을 논리적으로 그룹화할 수 있습니다.

시작하기 전에

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Speech-to-Text APIs.

    Enable the APIs

  5. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

    Check for the roles

    1. In the Google Cloud console, go to the IAM page.

      Go to IAM
    2. Select the project.
    3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

    4. For all rows that specify or include you, check the Role colunn to see whether the list of roles includes the required roles.

    Grant the roles

    1. In the Google Cloud console, go to the IAM page.

      IAM으로 이동
    2. 프로젝트를 선택합니다.
    3. 액세스 권한 부여를 클릭합니다.
    4. 새 주 구성원 필드에 사용자 식별자를 입력합니다. 일반적으로 Google 계정의 이메일 주소입니다.

    5. 역할 선택 목록에서 역할을 선택합니다.
    6. 역할을 추가로 부여하려면 다른 역할 추가를 클릭하고 각 역할을 추가합니다.
    7. 저장을 클릭합니다.
    8. Install the Google Cloud CLI.
    9. To initialize the gcloud CLI, run the following command:

      gcloud init
    10. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

      Go to project selector

    11. Make sure that billing is enabled for your Google Cloud project.

    12. Enable the Speech-to-Text APIs.

      Enable the APIs

    13. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

      Check for the roles

      1. In the Google Cloud console, go to the IAM page.

        Go to IAM
      2. Select the project.
      3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

      4. For all rows that specify or include you, check the Role colunn to see whether the list of roles includes the required roles.

      Grant the roles

      1. In the Google Cloud console, go to the IAM page.

        IAM으로 이동
      2. 프로젝트를 선택합니다.
      3. 액세스 권한 부여를 클릭합니다.
      4. 새 주 구성원 필드에 사용자 식별자를 입력합니다. 일반적으로 Google 계정의 이메일 주소입니다.

      5. 역할 선택 목록에서 역할을 선택합니다.
      6. 역할을 추가로 부여하려면 다른 역할 추가를 클릭하고 각 역할을 추가합니다.
      7. 저장을 클릭합니다.
      8. Install the Google Cloud CLI.
      9. To initialize the gcloud CLI, run the following command:

        gcloud init
      10. 클라이언트 라이브러리는 애플리케이션 기본 사용자 인증 정보를 사용하여 간편하게 Google API를 인증하고 API에 요청을 보낼 수 있습니다. 애플리케이션 기본 사용자 인증 정보를 사용하면 애플리케이션을 로컬에서 테스트하고 기본 코드를 변경하지 않은 상태로 배포할 수 있습니다. 자세한 내용은 클라이언트 라이브러리 사용 인증을 참조하세요.

      11. If you're using a local shell, then create local authentication credentials for your user account:

        gcloud auth application-default login

        You don't need to do this if you're using Cloud Shell.

      또한 클라이언트 라이브러리를 설치했는지 확인합니다.

      인식기 이해하기

      인식기는 구성 가능하며 재사용 가능한 인식 구성입니다. 자주 사용되는 인식 구성으로 인식기를 만들면 인식 요청을 간소화하고 요청 규모를 줄이는 데 도움이 됩니다.

      인식기의 핵심 요소는 기본 구성입니다. 이 인식기는 이 인식기가 실행하는 모든 인식 요청의 구성입니다. 이 기본값은 요청별로 재정의할 수 있습니다. 특정 요청의 특정 기능을 재정의하면서 특정 인식기에 대한 요청 간에 필요한 기능의 기본 구성을 유지합니다.

      인식기를 최대한 재사용합니다. 인식기를 요청마다 하나씩 만들면 애플리케이션의 지연 시간이 크게 증가하고 리소스 할당량이 소모됩니다. 통합 및 설정 중에 자주 만들지 말고 인식 요청에 재사용하세요.

      인식기 만들기

      다음은 인식 요청을 전송하는 데 사용할 수 있는 인식기를 만드는 예입니다.

      Python

      import os
      
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
      
      
      def create_recognizer(recognizer_id: str) -> cloud_speech.Recognizer:
          """Сreates a recognizer with an unique ID and default recognition configuration.
          Args:
              recognizer_id (str): The unique identifier for the recognizer to be created.
          Returns:
              cloud_speech.Recognizer: The created recognizer object with configuration.
          """
          # Instantiates a client
          client = SpeechClient()
      
          request = cloud_speech.CreateRecognizerRequest(
              parent=f"projects/{PROJECT_ID}/locations/global",
              recognizer_id=recognizer_id,
              recognizer=cloud_speech.Recognizer(
                  default_recognition_config=cloud_speech.RecognitionConfig(
                      language_codes=["en-US"], model="long"
                  ),
              ),
          )
          # Sends the request to create a recognizer and waits for the operation to complete
          operation = client.create_recognizer(request=request)
          recognizer = operation.result()
      
          print("Created Recognizer:", recognizer.name)
          return recognizer
      
      

      기존 인식기를 사용하여 요청 보내기

      다음은 동일한 인식기를 사용하여 여러 인식 요청을 전송하는 예입니다.

      Python

      import os
      
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
      
      
      def transcribe_reuse_recognizer(
          audio_file: str,
          recognizer_id: str,
      ) -> cloud_speech.RecognizeResponse:
          """Transcribe an audio file using an existing recognizer.
          Args:
              audio_file (str): Path to the local audio file to be transcribed.
                  Example: "resources/audio.wav"
              recognizer_id (str): The ID of the existing recognizer to be used for transcription.
          Returns:
              cloud_speech.RecognizeResponse: The response containing the transcription results.
          """
          # Instantiates a client
          client = SpeechClient()
      
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              audio_content = f.read()
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{PROJECT_ID}/locations/global/recognizers/{recognizer_id}",
              content=audio_content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
      
          return response
      
      

      인식기에서 기능 사용 설정

      자동 구두점 또는 욕설 필터링과 같은 다양한 기능을 인식에 사용 설정하는 데 인식기를 사용할 수 있습니다.

      다음은 인식기에서 자동 구두점을 사용 설정하는 예입니다. 이 인식기를 사용하여 인식 요청에서 자동 구두점이 사용 설정됩니다.

      Python

      
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      from google.api_core.exceptions import NotFound
      
      # Instantiates a client
      client = SpeechClient()
      
      # TODO(developer): Update and un-comment below line
      # PROJECT_ID = "your-project-id"
      # recognizer_id = "id-recognizer"
      recognizer_name = (
          f"projects/{PROJECT_ID}/locations/global/recognizers/{recognizer_id}"
      )
      try:
          # Use an existing recognizer
          recognizer = client.get_recognizer(name=recognizer_name)
          print("Using existing Recognizer:", recognizer.name)
      except NotFound:
          # Create a new recognizer
          request = cloud_speech.CreateRecognizerRequest(
              parent=f"projects/{PROJECT_ID}/locations/global",
              recognizer_id=recognizer_id,
              recognizer=cloud_speech.Recognizer(
                  default_recognition_config=cloud_speech.RecognitionConfig(
                      auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
                      language_codes=["en-US"],
                      model="latest_long",
                      features=cloud_speech.RecognitionFeatures(
                          enable_automatic_punctuation=True,
                      ),
                  ),
              ),
          )
          operation = client.create_recognizer(request=request)
          recognizer = operation.result()
          print("Created Recognizer:", recognizer.name)
      
      # Reads a file as bytes
      with open(audio_file, "rb") as f:
          audio_content = f.read()
      
      request = cloud_speech.RecognizeRequest(
          recognizer=f"projects/{PROJECT_ID}/locations/global/recognizers/{recognizer_id}",
          content=audio_content,
      )
      
      # Transcribes the audio into text
      response = client.recognize(request=request)
      
      for result in response.results:
          print(f"Transcript: {result.alternatives[0].transcript}")
      

      인식 요청에서 인식기 기능 재정의

      다음은 인식기에서 여러 기능을 사용 설정했지만 이 인식 요청에 대해서는 자동 구두점을 사용 중지하는 예입니다.

      Python

      import os
      
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      from google.protobuf.field_mask_pb2 import FieldMask
      
      PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
      
      
      def transcribe_override_recognizer(
          audio_file: str,
          recognizer_id: str,
      ) -> cloud_speech.RecognizeResponse:
          """Transcribe an audio file using an existing recognizer with overridden settings for the recognition request.
          Args:
              audio_file (str): Path to the local audio file to be transcribed.
                  Example: "resources/audio.wav"
              recognizer_id (str): The unique ID of the recognizer to be used for transcription.
          Returns:
              cloud_speech.RecognizeResponse: The response containing the transcription results.
          """
          # Instantiates a client
          client = SpeechClient()
      
          request = cloud_speech.CreateRecognizerRequest(
              parent=f"projects/{PROJECT_ID}/locations/global",
              recognizer_id=recognizer_id,
              recognizer=cloud_speech.Recognizer(
                  default_recognition_config=cloud_speech.RecognitionConfig(
                      auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
                      language_codes=["en-US"],
                      model="latest_long",
                      features=cloud_speech.RecognitionFeatures(
                          enable_automatic_punctuation=True,
                          enable_word_time_offsets=True,
                      ),
                  ),
              ),
          )
      
          operation = client.create_recognizer(request=request)
          recognizer = operation.result()
      
          print("Created Recognizer:", recognizer.name)
      
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              audio_content = f.read()
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{PROJECT_ID}/locations/global/recognizers/{recognizer_id}",
              config=cloud_speech.RecognitionConfig(
                  features=cloud_speech.RecognitionFeatures(
                      enable_word_time_offsets=False,
                  ),
              ),
              config_mask=FieldMask(paths=["features.enable_word_time_offsets"]),
              content=audio_content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
      
          return response
      
      

      인식기 없이 요청 보내기

      인식기는 인식 요청의 선택사항입니다. 인식기 없이 요청을 전송하려면 요청하는 위치에 인식기 리소스 ID _를 사용하기만 하면 됩니다. 예를 들면 다음과 같습니다.

      Python

      import os
      
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
      
      
      def quickstart_v2(audio_file: str) -> cloud_speech.RecognizeResponse:
          """Transcribe an audio file.
          Args:
              audio_file (str): Path to the local audio file to be transcribed.
          Returns:
              cloud_speech.RecognizeResponse: The response from the recognize request, containing
              the transcription results
          """
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              audio_content = f.read()
      
          # Instantiates a client
          client = SpeechClient()
      
          config = cloud_speech.RecognitionConfig(
              auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
              language_codes=["en-US"],
              model="long",
          )
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{PROJECT_ID}/locations/global/recognizers/_",
              config=config,
              content=audio_content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
      
          return response
      
      

      삭제

      이 페이지에서 사용한 리소스 비용이 Google Cloud 계정에 청구되지 않도록 하려면 다음 단계를 수행합니다.

      1. Optional: Revoke the authentication credentials that you created, and delete the local credential file.

        gcloud auth application-default revoke
      2. Optional: Revoke credentials from the gcloud CLI.

        gcloud auth revoke

      콘솔

    14. In the Google Cloud console, go to the Manage resources page.

      Go to Manage resources

    15. In the project list, select the project that you want to delete, and then click Delete.
    16. In the dialog, type the project ID, and then click Shut down to delete the project.
    17. gcloud

      Delete a Google Cloud project:

      gcloud projects delete PROJECT_ID

      다음 단계