Control F を使用して、各カタログの特定のエラーコードを検索します。エラーコードの検索には、画面右上の検索ボックスをご利用ください。
コード | 重大度 | メッセージ | 原因/処置 |
---|---|---|---|
000200 | ERROR | pam_start() failed | |
000201 | ERROR | pam_authenticate failed (user %s, retval %d) | |
000202 | ERROR | pam_end() failed?!?! | |
000203 | ERROR | Did not find expected group ‘lkguest’ | |
000204 | ERROR | Did not find expected group ‘lkoper’ | |
000205 | ERROR | Did not find expected group ‘lkadmin’ | |
000208 | ERROR | pam_setcred establish credentials failed (user %s, retval %d) | 原因: ユーザー {user} の有効なログイン資格情報を確立できません。pam_setcred 呼び出しで返された値は次の通りです:{retval} 処置: 詳細については、/var/log/security および /var/log/messages を確認して下さい。 |
000209 | ERROR | pam_setcred delete credentials failed (user %s, retval %d) | 原因: ユーザー {user} の有効なログイン資格情報を確立できません。pam_setcred 呼び出しで返された値は次の通りです:{retval} 処置: 詳細については、/var/log/security および /var/log/messages を確認して下さい。 |
000902 | ERROR | Error removing system name from loopback address line in /etc/hosts file. You must do this manually before starting the GUI server. | 原因: システム名が /etc/hosts ファイルから削除されていません。 処置: システム名を手動で削除し、GUI サーバーを再起動して、次のコマンドを入力して下さい。: run <action name> |
000918 | ERROR | LifeKeeper GUI Server error during Startup | 原因: 異常な状態により、GUI サーバーが終了しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
001052 | FATAL | Template resource "%s" on server "%s" does not exist | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
001053 | ERROR | Cannot access canextend script "%s" on server "%s" | 原因: {server} でスクリプト CANEXTEND が見つからなかったので、LifeKeeper は拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
001054 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 |
001055 | ERROR | Cannot access extend script "%s" on server "%s" | 原因: LifeKeeper は、{server} でスクリプト EXTEND が見つからなかったので、リソース階層を拡張できませんでした。 処置: LifeKeeper の設定を確認してください。 |
001057 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 |
001059 | ERROR | Resource with tag "%s" already exists | 原因: リソースで指定した名前はすでに使用中です。 処置: リソースに別の名前を選択するか、既存のリソースを使用してください。 |
001060 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | 原因: リソースで指定した名前または ID はすでに使用中です。 処置: リソースに別の名前または ID を選択するか、既存のリソースを使用してください。 |
001061 | ERROR | Error creating resource "%s" on server "%s" | 原因: リソースの作成中に予期しない障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
001081 | WARN | IP address \"$ip\" is neither v4 nor v6 | 原因: 指定した IP アドレスは IPv4 アドレスでも IPv6 アドレスでもありません。 処置: 指定した名前またはアドレスを確認し、再試行してください。名前を指定している場合は、名前の解決が有効な IP アドレスを返していることを確認してください。 |
004024 | ERROR | 原因: LCD はリソースのリカバリー中にリソース ID {id} のリソース情報のフェッチに失敗しました。 処置: 入力リソース ID を確認し、リカバリー操作を再試行してください。 |
|
004028 | ERROR | %s occurred to resource \"%s\" | 原因: リソース {resource} のローカルリカバリーが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004055 | ERROR | attempt to remote-remove resource \"%s\" that can’t be found | 原因: タグ名 {tag} によるリソースの検索中に、リモートによるサービスからのリソース削除に失敗しました。 処置: 入力タグ名を確認し、リカバリー操作を再試行してください。 |
004056 | ERROR | attempt to remote-remove resource \"%s\" that is not a shared resource | 原因: タグ名 {tag} が共有リソースでない場合に、リモートによるサービスからのリソース削除に失敗しました。 処置: 入力タグ名を確認し、リカバリー操作を再試行してください。 |
004060 | ERROR | attempt to transfer-restore resource \"%s\" that can’t be found | 原因: タグ名 {tag} を指定したサービスリソースのリモート転送に失敗しました。 処置: 入力タグ名を確認し、リカバリー操作を再試行してください。 |
004061 | ERROR | attempt to transfer-restore resource \"%s\" that is not a shared resource with machine \"%s\" | 原因: LifeKeeper は、リモート {machine} からサービスのリソースをリモート転送する際に、{tag} 名による共有リソースの検出に失敗しました。 処置: 入力タグ名を確認し、リカバリー操作を再試行してください。 |
004089 | ERROR | ERROR: Parallel recovery initialization failed.\n | 原因: パラレルリカバリーは、階層内にあるリソースのリストの初期化に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004091 | ERROR | ERROR: fork failed. continuing to next resource\n | 原因: パラレルリカバリーで、単一のリソースをリストアしようとする新しいプロセスを分岐できませんでした。 |
004093 | ERROR | ERROR: reserve failed. continuing to next resource\n | 原因:パラレルリカバリーは、集合階層から単一のリソースのリザーブに失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004096 | ERROR | ERROR: clone %d is hung, attempting to kill it\n | 原因: リソースリカバリーの単一のサブプロセスが、リソース階層全体のパラレルリカバリーの際にハングしました。 処置: ハングしているサブプロセスが自動的に停止してください |
004097 | ERROR | ERROR: Could not kill clone %d\n | 原因: ハングしているサブプロセスの停止に失敗しました。 |
004116 | ERROR | %s | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間フォルダを作成しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、中間フォルダが作成されていない理由を判別してください。 |
004117 | ERROR | open(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルを開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルを開くことができない理由を判別してください。 |
004118 | ERROR | write(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルに書き込もうして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルの書き込みに失敗した理由を判別してください。 |
004119 | ERROR | fsync(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルに fsync を実行しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、「fsync」が失敗した理由を特定してください。 |
004120 | ERROR | close(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイルを閉じようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのクローズに失敗した理由を判別してください。 |
004121 | ERROR | rename(%s, %s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、一時ファイル {file} の名前を元のファイル {file} に変更しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルの名前変更に失敗した理由を判別してください。 |
004122 | ERROR | open(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間ディレクトリ {directory} を開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ディレクトリのオープンに失敗した理由を判別してください。 |
004123 | ERROR | fsync(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間ディレクトリ {directory} に fsync を実行しようとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ディレクトリの「fsync」に失敗した理由を特定してください。 |
004124 | ERROR | close(%s) | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、中間ディレクトリ {directory} を閉じようとして失敗しました。これはシステムエラーです。 処置:ログで詳細なエラー情報を確認し、ディレクトリのクローズに失敗した理由を判別してください。 |
004125 | ERROR | wrote only %d bytes of requested %d\n | 原因: メモリ内データオブジェクトのオンディスクバージョンを書き込む際に、書き込まれるデータの最終的なサイズ {size} バイトが要求バイト数 {number} を下回っているため、書き込み操作が失敗しました。 処置: ログで関連エラー情報を確認し、データの書き込みに失敗した理由を判別してください。 |
004126 | ERROR | open(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、データファイルを開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのオープンに失敗した理由を判別してください。 |
004127 | ERROR | open(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、一時データファイルを開こうとして失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのオープンに失敗した理由を判別してください。 |
004128 | ERROR | read(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファにロードしている間に、データファイルを読み取ろうとして失敗しました。これはシステムエラーです。 処置:ログで詳細なエラー情報を確認し、ファイルの読み取りに失敗した理由を判別してください。 |
004129 | ERROR | read buffer overflow (MAX=%d)\n | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取ろうとしている間に、読み取りバッファの制限 {max} に達しました。 処置: LifeKeeper 設定を確認し、LifeKeeper を再起動してください。 |
004130 | ERROR | close(%s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、データファイルのクローズに失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルのクローズに失敗した理由を判別してください。 |
004131 | ERROR | rename(%s, %s) | 原因: データオブジェクトのオンディスクバージョンをバッファに読み取っている間に、一時データファイルの名前変更に失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ファイルの名前変更に失敗した理由を判別してください。 |
004132 | ERROR | Can’t open %s : %s | 原因: アプリケーションとリソースタイプ情報のオンディスクバージョンをバッファに読み取っている間にエラー {error} でディレクトリ {directory} のオープンに失敗しました。これはシステムエラーです。 処置: ログで詳細なエラー情報を確認し、ディレクトリのオープンに失敗した理由を判別してください。 |
004133 | ERROR | path argument may not be NULL | 原因: 入力ソースパスが見つからないので、ファイルコピー中にコマンド「lcdrcp」が失敗しました。 処置: 入力ソースパスを確認し、「lcdrcp」を再試行してください。 |
004134 | ERROR | destination path argument may not be NULL | 原因:入力ディスティネーションパスが見つからないので、ファイルコピー中にコマンド「lcdrcp」が失敗しました。 処置: 入力ディスティネーションパスを確認し、「lcdrcp」を再試行してください。 |
004135 | ERROR | destination path can’t be zero length string | 原因: 「lcdrcp」によるファイルコピー中に、入力ディスティネーションパスが空でした。 処置: 入力ディスティネーションパスを確認し、「lcdrcp」を再試行してください。 |
004136 | ERROR | open(%s) | 原因: 「lcdrcp」によるファイルコピー中に、ソースファイルパスのオープンに失敗しました。これはシステムエラーです。 処置: 入力ソースパスがあるかどうか、および使用可能かどうかを確認し、「lcdrcp」を再試行します。また、関連ログで詳細なエラー情報を確認してください。 |
004137 | ERROR | fstat(%s) | 原因: 「lcdrcp」によるファイルコピー中に、「fstat」を使用したファイル属性のフェッチに失敗しました。これはシステムエラーです。 処置:ログで詳細なエラー情報を確認してください。 |
004138 | ERROR | file \"%s\" is not an ordinary file (mode=0%o) | 原因: 「lcdrcp」によるファイルコピー中に、通常のものではないファイルとしてソースファイルが検出されました。 処置: 入力ソースファイルパスを確認し、「lcdrcp」を再試行してください。 |
004151 | FATAL | lcdMalloc failure | 原因: 共有メモリに、要求されたサイズのメモリを割り当てることができませんでした。 処置: 致命的なエラーが生成されます。 |
004152 | ERROR | having \"%s\" depend on \"%s\" would produce a loop | 原因: 要求された依存関係を追加すると、依存関係がループします。 処置: 要求された依存関係を修正し、依存関係の作成を再試行してください。 |
004164 | ERROR | Priority mismatch between resources %s and %s. Dependency creation failed. | 原因: {resource1} と {resource2} のプロパティが一致しません。 処置: リソースプロパティは一致している必要があります。どちらか一方または両方のプロパティを同じ値に変更し、依存関係の作成を再試行してください。 |
004176 | ERROR | %s | 原因: コマンド「doabort」がコアファイルを書き込むための {directory} の作成に失敗しました。これはシステムエラーです。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004182 | ERROR | received signal %d\n | 原因: 信号 {signum} を受信しました。 |
004186 | ERROR | %s: ::receive(%d) protocol error on incoming_mailbox %s | 原因: {function} で、タイムアウト時間({timeout}秒)以内にメッセージを受信しようとしましたが、受信メールボックス {mailbox} が非アイドル状態のため受信できませんでした。 処置: クラスター内の接続の状態を確認し、プロセスを再試行してください。 |
004190 | ERROR | %s: ::receive(%d) did not receive message within %d seconds on incoming_mailbox %s | 原因: 関数 {function} で、受信メールボックス {mailbox} でタイムアウト {timeout} 秒以内にメッセージを受信しようとしたところ、失敗しました。 処置: クラスター内の接続の状態を確認し、プロセスを再試行してください。 |
004204 | ERROR | attempt to send illegal message | 原因: 不正なメッセージを送信しようとしたため、メッセージの送信に失敗しました。 |
004205 | ERROR | destination system \"%s\" is unknown | 原因: 不明なディスティネーションシステム名 {system} のため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004206 | ERROR | destination mailbox \"%s\" at system \"%s\" is unknown | 原因: 不明なディスティネーションシステム名 {system} の不明なメールボックス {mailbox} のため、メッセージの送信に失敗しました。このエラーは、LCD が完全に初期化される前にメッセージを送信することで発生します。 処置:システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004208 | ERROR | destination system \"%s\" is alive but the \"%s\" mailbox process is not listening. | 原因: メッセージの送信に失敗しました。ディスティネーションシステム {system} へのネットワーク接続は稼働中ですが、ディスティネーションメールボックスとの通信は失われました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004209 | ERROR | destination system \"%s\" is dead. | 原因: ディスティネーションシステム {system} との接続が失われたため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004211 | ERROR | can’t send to destination \"%s\" error=%d | 原因: 内部エラー {error} のため、ディスティネーションシステム {system} へのメッセージ送信に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004217 | ERROR | destination system \"%s\" is out of service. | 原因: ディスティネーションシステム {system} との接続が失われたため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004221 | ERROR | destination system \"%s\" went out of service. | 原因: ディスティネーションシステム {system} との接続が失われたため、メッセージの送信に失敗しました。 処置: システムの設定と状態を確認し、関連エラーをログで確認してください。システムが完全に初期化されたら、同じプロセスを再試行してください。 |
004228 | ERROR | Can’t get host name from getaddrinfo() | 原因: 「getaddrinfo()」を使用してホスト名を取得しているときに障害が発生したため、ネットワークオブジェクトの作成に失敗しました。 処置: システムの設定と状態を確認し、同じプロセスを再実行してください。 |
004234 | ERROR | IP address pair %s already in use | 原因: TCP コミュニケーションパスで IP アドレスペア {pair} がすでに使用中のため、ネットワークオブジェクトの作成に失敗しました。 処置: 入力 IP アドレスペアを確認し、ネットワークの作成を再実行してください。 |
004258 | WARN | Communication to %s by %s FAILED | 原因: コミュニケーションパス {path} によるシステム {system} への通信に失敗しました。 処置: システム設定とネットワーク接続を確認してください。 |
004261 | WARN | COMMUNICATIONS failover from system \"%s\" will be started. | 原因: すべてのコミュニケーションパスがダウンしたため、システム {system} からのフェイルオーバーが開始されます。 処置: システム設定とネットワーク接続の状態を確認してください。フェイルオーバーが完了したら、システムの状態を確認してください。 |
004292 | ERROR | resource \"%s\" %s | 原因: 現在の状態が不明なため、リソースを in service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004293 | ERROR | resource \"%s\" %s | 原因: 現在の状態により許可されていないため、リソースを in service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004294 | ERROR | resource \"%s\" requires a license (for Kit %s/%s) but none is installed | 原因: リソースの関連リカバリーキットにはライセンスが必要です。 処置: リソースを in service にするサーバーに、リカバリーキットのライセンスをインストールしてください。 |
004297 | ERROR | secondary remote resource \"%s\" on machine \"%s\" is already in-service, so resource \"%s\" on machine \"%s\" can’t be brought in-service. | 原因:セカンダリリモートリソース {resource} がマシン {machine} ですでに in service になっているため、リソース {resource} をマシン {machine} で in service にできませんでした。 処置: リモートリソースを手動で out of service に変更し、ローカルリソースで再び in service にしてください |
004298 | ERROR | remote resource \"%s\" on machine \"%s\" is still in-service, restore of resource \"%s\" will not be attempted!\n | |
004300 | ERROR | restore of resource \"%s\" has failed | 原因: リソースを in service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004311 | ERROR | can’t perform \"remove\" action on resources in state \"%s\" | 原因: 現在の状態が {state} のため、リソースを out of service にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004313 | ERROR | remove of resource \"%s\" has failed | 原因: リソース {resource} をサービス休止にできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004318 | ERROR | %s,priv_globact(%d,%s): script %s FAILED returning %d | 原因: 指定したエラーコードでグローバルアクションスクリプトが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004332 | ERROR | action \"%s\" has failed on resource \"%s\" | 原因: リソースアクションが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004351 | ERROR | a \"%s\" equivalency must have one remote resource | 原因:同じシステムに 2 つの入力タグ名が存在しているため、イクイバレンシ {eqvtype} の作成に失敗しました。 処置: 入力リソースタグ名を修正し、同じプロセスを再実行してください。 |
004356 | WARN | Use unsupported option %s for remove. This option may be removed in future upgrades. | |
004376 | FATAL | wait period of %u seconds for LCM to become available has been exceeded (lock file \"%s\" not removed) | 原因: 妥当な時間内に LCM デーモンが使用可能になりませんでした。LCD は LCM なしでは操作できません。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004386 | ERROR | initlcdMalloc;shmget | 原因: 共有メモリセグメントを初期化できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。製品ドキュメントを参照し、サーバーが最低要件を満たしていること、およびオペレーティングシステムが適切に設定されていることを確認してください。 |
004439 | WARN | intermachine recovery skipped for %s. Failed to obtain resource_state_change lock.\n | |
004444 | WARN | License key (for Kit %s/%s) has EXPIRED | 原因: ライセンスが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
004445 | WARN | License key (for Kit %s/%s) will expire at midnight in %ld days | 原因: ライセンスが間もなく期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
004466 | ERROR | system \"%s\" not defined on machine \"%s\". | 原因: 指定したシステム名が不明です。 処置: システム名を確認し、操作を再試行してください。 |
004467 | ERROR | system \"%s\" unknown on machine \"%s\" | 原因: 指定したシステム名が認識されません。 処置: システム名を確認し、操作を再試行してください。 |
004494 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004495 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004496 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004497 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004498 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004499 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004500 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004501 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004502 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004503 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004504 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004505 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004506 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004507 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004508 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004509 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004510 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004511 | ERROR | COMMAND OUTPUT: %s | 原因: アクションまたはイベントスクリプトが予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004512 | ERROR | %s | 原因: リモートマシンでエラーが発生しました。 処置: リモートマシンのログを確認し、詳細を確認してください。 |
004565 | ERROR | can’t set resource state type to ILLSTATE | 原因: リソースを不正な状態に配置しようとしました。 処置: リソースを不正な状態で配置しないでください。 |
004567 | ERROR | split brain detected while setting resource \"%s\" to \"%s\" state (SHARED equivalency to resource \"%s\" on machine \"%s\" which is in state \"%s\"). Setting local resource ISP but aborting the operation. | 原因: マシン {machine} の SHARED イクイバレンシの プライマリリソース {resource} が {state} という状態にあるため、リソース {resource} を {state} という状態に変更できませんでした。 処置: スプリットブレインが発生しました。フェールオーバー操作は中止されました。スプリットブレインリソース(複数のシステム上の ISP)を手動で適切な状態にする必要があります。 |
004575 | ERROR | COMMAND OUTPUT: %s | |
004607 | ERROR | no resource instance has tag \"%s\" | 原因: 指定したタグのリソースが存在しません。 処置: 有効なタグを指定するか、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004608 | ERROR | no resource instance has identifier \"%s\" | 原因: 指定した識別子のリソースが存在しません。 処置: 有効な識別子を指定するか、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004619 | ERROR | resource with tag \"%s\" already exists with identifier \"%s\" | 原因: 指定したタグ名はすでに存在します。 処置: 別のタグ名を選択してください。 |
004620 | ERROR | resource with identifier \"%s\" already exists with tag \"%s\" | 原因: 指定した識別子はすでに存在します。 処置: このリソースで使用する別の識別子を選択してください。 |
004643 | ERROR | Instance tag name is too long. It must be shorter than %d characters. | 原因: タグ名が長すぎます。 処置: 256 文字未満のタグ名を指定してください。 |
004646 | ERROR | Tag name contains illegal characters | 原因: タグ名に不正な文字が含まれています。 処置: こちら を参照してください。 |
004691 | ERROR | can’t set both tag and identifier at same time | 原因: タグと識別子が両方指定されました。 処置: タグまたは識別子の一方のみを指定してください。 |
004745 | ERROR | failed to access lkexterrlog path=%s | 原因: システム情報を収集するユーティリティ 「lkexterrlog」にアクセスできません。 処置: パッケージ「steeleye-lk」がインストールされていること、およびユーティリティ「lkexterrlog」がアクセス可能であることを確認してください。 |
004746 | ERROR | lkexterrlog failed runret=%d cmdline=%s | 原因: システム情報の収集時に、ユーティリティ「lkexterrlog」が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004782 | ERROR | Resource \"%s\" was in state \"%s\" before event occurred – recovery will not be attempted | 原因: リソースはすでに in service です。リカバリーは実行されません。 |
004783 | ERROR | Resource \"%s\" was already in state \"%s\" before event occurred | 原因: リソースはリカバリーを許可するために適切な状態にありませんでした。 処置: リカバリーが必要な場合は、リソースを ISP 状態にしてください。 |
004786 | ERROR | %s on failing resource \"%s\" | 原因: リソースを復旧しようとしているときにエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004788 | EMERG | failed to remove resource ‘%s’. SYSTEM HALTED. | 原因: エラーが発生し、リカバリー中にリソースをサービス休止にできませんでした。リソースが 2 つのシステムでアクティブにならないように、システムが再起動されました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004793 | ERROR | lcdsendremote transfer resource \"%s\" to \"%s\" on machine \"%s\" failed (rt=%d) | 原因: リソースとその依存関係を別のシステムへ転送中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。関連エラーがないかどうか、もう一方のシステムのログを確認してください。 |
004797 | ERROR | Restore of SHARED resource \"%s\" has failed | 原因: リソースのリストア中にエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
004806 | ERROR | Restore in parallel of resource \"%s\" has failed; will re-try serially | 原因: パラレルリカバリーが失敗しました。関連するエラーをログで確認し、レポートされている問題を解決してください。 処置: 処置は必要ありません。システムはシリアル形式でリカバリーを続行します。リカバリーが失敗した場合は、復旧できなかったリソースに関連するエラーメッセージを確認し、対応策を探してください |
004819 | ERROR | read_temporal_recovery_log(): failed to fopen file: %s. fopen() %s. | 原因: メモリにロードするために一時リカバリーログファイル {file} を開こうとしたところ、エラー {error} で失敗しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004820 | ERROR | read_temporal_recovery_log(): failed to malloc initial buf for temporal_recovery_stamp. | 原因: ログ情報を格納するためのメモリを取得しようとしている際に、一時リカバリーログ情報のメモリへのロードに失敗しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004821 | ERROR | read_temporal_recovery_log(): failed to reallocate buffer for temporal_recovery_stamp. | 原因: ログ情報の格納に必要なメモリサイズを増やそうとしている際に、一時リカバリーログ情報のメモリへのロードに失敗しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004822 | ERROR | write_temporal_recovery_log(): failed to open file: %s. | 原因: 一時ファイル {temporary name} のオープンに失敗したため、一時リカバリーログファイルの更新が終了しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004823 | ERROR | rename(%s, %s) failed. | 原因: 一時ファイル {temporary name} を実際のログファイル {real name} に名称変更できなかったため、一時リカバリーログファイルの更新が終了しました。 処置: システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004829 | FATAL | err=%s line=%d Semid=%d numops=%zd perror=%s | 原因: セマフォ ID {semaphore} の変更がエラー {err} およびエラーメッセージの説明 {perror} で失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004860 | ERROR | restore ftok failed for resource %s with path %s | 原因: パス {path} を使用するリソース {tag} のセマフォ操作で使用する IPC キーの生成に失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004861 | ERROR | semget failed with error %d | 原因: インスタンスファイルに関連付けられたセマフォ識別の取得に失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004862 | ERROR | semctl SEMSET failed with error %d | 原因: リカバリープロセス中に使用されるセマフォの作成と初期化がエラー {error number} で失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004863 | ERROR | semop failed with error %d | 原因: リカバリープロセス中に使用されるセマフォの設定がエラー {error number} で失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004864 | ERROR | semctl SEMSET failed with error %d | 原因: リカバリープロセス中に使用されるセマフォの解放がエラー {error number} で失敗しました。これはシステムエラーです。 処置: 隣接するログメッセージで詳細を確認してください。また、システムログファイルを確認し、レポートされているエラーを修正してから、操作を再試行してください。 |
004865 | ERROR | restore action failed for resource %s (exit: %d) | 原因: リソース {tag} を In Service にする操作が失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。レポートされているエラーを修正し、操作を再試行してください。 |
004872 | ERROR | Remote remove of resource \"%s\" on machine \"%s\" failed (rt=%d) | 原因: ローカルシステムに転送するために {server} でリソース {tag} をサービス休止にする要求が失敗しました。 処置: ローカルシステムで、隣接するログメッセージから詳細を確認してください。また、リソースを削除するには、{server} のログメッセージで障害に関する詳細を確認してください。 |
004875 | ERROR | remote remove of resource \"%s\" on machine \"%s\" failed | 原因: ローカルシステムに転送するために {server} でリソース {tag} をサービス休止にする要求が失敗しました。 処置: ローカルシステムで、隣接するログメッセージから詳細を確認してください。また、リソースを削除するには、{server} のログメッセージで障害に関する詳細を確認してください。 |
004876 | ERROR | remote remove of resource \"%s\" on machine \"%s\" failed | 原因: ローカルシステムに転送するために {server} でリソース {tag} をサービス休止にする要求が失敗しました。 処置: ローカルシステムで、隣接するログメッセージから詳細を確認してください。また、リソースを削除するには、{server} のログメッセージで障害に関する詳細を確認してください。 |
005045 | ERROR | tli_fdget_i::execute unable to establish a listener port | 原因: ネットワーク接続を適切に設定できませんでした。 処置: すべてのネットワークハードウェアおよびドライバが適切に設定されていることを確認してください。それでもこのメッセージが表示され、リソースを in service にできない場合は、サポートに問い合わせてください。 |
005055 | ERROR | tli_fdget_o::execute – async connect failure | 原因: ネットワーク接続を適切に設定できませんでした。 処置: すべてのネットワークハードウェアおよびドライバが適切に設定されていることを確認してください。それでもこのメッセージが表示され、リソースを in service にできない場合は、サポートに問い合わせてください。 |
005061 | ERROR | tli_fdget_o::execute – bind socket | 原因: ネットワーク接続を適切に設定できませんでした。 処置: すべてのネットワークハードウェアおよびドライバが適切に設定されていることを確認してください。それでもこのメッセージが表示され、リソースを in service にできない場合は、サポートに問い合わせてください。 |
005090 | WARN | system_driver::add_driver: cmd=%s\n | |
005108 | WARN | system_driver::rm_driver: cmd=%s\n | |
005145 | ERROR | opening the file | 原因: パイプを開く、または作成することができませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
005164 | ERROR | tli_handler::handle-error:sending/receiving data message | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005165 | WARN | errno %d\n | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005166 | WARN | poll 0x%hx\n | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005167 | WARN | handler for sys %s\n | 原因: メッセージの送信または受信に失敗しました。 処置: 詳細については、隣接するログメッセージを確認してください。これは一時的なエラーの可能性がありますが、このエラーが引き続き発生し、サーバーが通信できない場合は、サーバーのネットワーク構成を確認してください。 |
005225 | WARN | so_driver::handle_error: sending/receiving data message errno %d: %s | 原因: メッセージの送受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバーが通信できない場合は、サーバーのネットワーク設定を確認してください。 |
005235 | WARN | found tcp connection to iwstp\n | |
005236 | WARN | didn’t find tcp connection to iwstp\n | |
005237 | WARN | lcm_handler retry send from %s:%s to %s:%s (%d)\n | |
005238 | WARN | detected duplicate request from %s:%s to %s:%s\n | |
005239 | WARN | lcm_handler retry timer set to %d based on lcd remote timeout of %d s (%d s) | |
005240 | WARN | lcm_handler retry count/time (%d/%zu) has exceeded the maximum. Giving up…\n | |
005241 | WARN | dup_list: %s %s %s %s %d %d (%d) | |
005242 | WARN | clean up stale dup_list entry (%d s): %s:%s to %s:%s last: %s | |
005243 | WARN | add new dup_list entry %s:%s to %s:%s %d %d (%d | |
005244 | WARN | closing fd %d\n | |
005245 | WARN | openpoll fd %d\n | |
006012 | ERROR | quickCheck script ‘%s’ (%d) failed to exit after %u seconds. Forcibly terminated. Please examine the script or adjust the LKCHECKINTERVAL parameter in %s. | 原因: quickCheck スクリプトの処理に時間がかかりすぎているか、スクリプトがハングしています。 処置: メッセージテキストに記載されている手順を実行してください。 |
006014 | ERROR | LKCHECKINTERVAL parameter is too short. It is currently set to %ld seconds. It should be at least %ld seconds. Please adjust this parameter in %s and execute ‘kill %d’ to restart the lkcheck daemon. | 原因: lkcheck は、LKCHECKINTERVAL 内にすべてのリソースをチェックできませんでした。 処置: 予想よりも長く実行されている quickCheck がないかどうかを確認します。 これは、リソースに問題があることを示している可能性があります。 必要に応じて、LKCHECKINTERVAL パラメーターを増やしてください。 |
006102 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | 原因: これは、「sendevent」(イベント生成)コマンドの結果です。 処置: 隣接するログメッセージで詳細を確認してください。 |
006103 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | 原因: これは、「sendevent」(イベント生成)コマンドの結果です。 処置: 隣接するログメッセージで詳細を確認してください。 |
006104 | ERROR | COMMAND OUTPUT: $LKROOT/bin/sendevent | 原因: これは、「sendevent」(イベント生成)コマンドの結果です。 処置: 隣接するログメッセージで詳細を確認してください。 |
006502 | ERROR | CPU usage has exceeded the threshold ($threshold%) for $count check cycles. | |
006504 | ERROR | Could not open /proc/meminfo | |
006505 | ERROR | Memory usage has exceeded the threshold ($threshold%) for $count check cycles. | |
006508 | ERROR | [$SUBJECT event] mail returned $err | |
006509 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006511 | ERROR | snmptrap returned $err for Trap 190 | |
006512 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006514 | ERROR | [$SUBJECT event] mail returned $err | |
006515 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006517 | ERROR | snmptrap returned $err for Trap 200 | |
006518 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
006520 | ERROR | Failed to update error count in $cpu_file: $! | |
006521 | ERROR | Failed to update error count in $mem_file: $! | |
006523 | ERROR | The SNHC_CPUCHECK_THRESHOLD setting is not valid. Please set SNHC_CPUCHECK_THRESHOLD to a value between 10 and 99 in /etc/default/LifeKeeper. If not set, the value will default to 99. | |
006524 | ERROR | The SNHC_CPUCHECK_TIME setting is not valid. Please set SNHC_CPUCHECK_TIME to a value between 1 and 100 in /etc/default/LifeKeeper. If not set, the value will default to 1. | |
006525 | ERROR | The SNHC_MEMCHECK_THRESHOLD setting is not valid. Please set SNHC_MEMCHECK_THRESHOLD to a value between 10 and 99 in /etc/default/LifeKeeper. If not set, the value will default to 99. | |
006526 | ERROR | The SNHC_MEMCHECK_TIME setting is not valid. Please set SNHC_MEMCHECK_TIME to a value between 1 and 100 in /etc/default/LifeKeeper. If not set, the value will default to 1. | |
006528 | ERROR | Could not open /proc/stat | |
006529 | ERROR | Could not open /proc/stat | |
006530 | ERROR | Could not use $tmp_path | |
007053 | ERROR | malloc failed. Assume that it is a monitoring target device. | |
007058 | ERROR | %s: %s failed on ‘%s’, result:%d, Sense Key = %d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバーによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007059 | ERROR | %s: %s failed on ‘%s’, result:%d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバーによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007060 | EMERG | %s: failure on device ‘%s’. SYSTEM HALTED. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバーによってリザーブされているためです。サーバーはリブート/停止されます。 処置: ストレージが適切に動作していることを確認し、適切に動作している場合は、リソースが適切に処理されており、別のサーバーで in service になっていることを確認してください。 |
007072 | ERROR | %s: failed to open SCSI device ‘%s’, initiate recovery. errno=0x%x, retry count=%d. | 原因: 保護された SCSI デバイスを開くことができませんでした。デバイスに障害が発生しているか、システムからデバイスが削除されている可能性があります。 処置: システムが停止されるか、バックアップノードへのフェイルオーバーが開始されます。この場合のデフォルトアクションはフェイルオーバーですが、SCSIERROR の設定で変更可能です。 |
007073 | ERROR | %s: failed to open SCSI device ‘%s’, RETRY. errno=%d, retry count=%d. | 原因: 保護された SCSI デバイスを開くことができませんでした。デバイスに障害が発生しているか、システムからデバイスが削除されている可能性があります。 処置: このエラーは致命的なものではありません。操作は 5 秒以内で再試行されます。問題が続行する場合、システムは停止またはリソースのフェイルオーバーを実行してください |
007075 | ERROR | %s: RESERVATION CONFLICT on SCSI device ‘%s’. ret=%d, errno=0x%x, retry count=%d. | 原因: 別のサーバーと競合しているため、SCSI デバイスをリザーブできませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバーによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007077 | ERROR | %s: DEVICE FAILURE on SCSI device ‘%s’, initiate recovery. ret=%d, errno=0x%x, retry count=%d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバーによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
007078 | ERROR | %s: DEVICE FAILURE on SCSI device ‘%s’, RETRY. ret=%d, errno=0x%x, retry count=%d. | 原因: SCSI デバイスをリザーブできませんでした。またはステータスを確認できませんでした。これは、ストレージが誤動作しているか、ディスクが別のサーバーによってリザーブされているためです。 処置: 隣接するログメッセージで詳細を確認し、リソースが適切に処理されていることを確認してください。 |
010002 | WARN | flag $flag not present, send message again. | 原因: このメッセージは、再試行される未完のプロセスを示します。 処置: 隣接するログメッセージで、繰り返されているエラーを確認してください。 |
010003 | ERROR | COMMAND OUTPUT: $LKBIN/ins_remove | 原因: このメッセージは「ins_remove」コマンドの結果の一部です。 処置: 隣接するログメッセージで詳細を確認してください。これは実際にはエラーではない可能性もあります。 |
010006 | WARN | flg_list -d $i took more than $pswait seconds to complete… | 原因: サーバーのフラグリスト処理の時間が予想以上にかかりました。別のサーバーとの接続に問題が発生している可能性もあります。 処置: 隣接するログメッセージで詳細を確認してください。 |
010007 | ERROR | flag $flag not present, switchovers may occur. | 原因: クラスター内のいずれかのサーバーに、現在のサーバーからのフェイルオーバー操作の不許可を指示できませんでした。 処置: 隣接するログメッセージで詳細を確認し、クラスターで予期しない動作を監視してください。 |
010008 | WARN | flag $flag not present, send message again. | 原因: プロセスは不完全ですが、再試行されます。 処置: 隣接するログメッセージで詳細を確認し、繰り返されている警告/エラーをチェックしてください。 |
010023 | FATAL | LifeKeeper failed to initialize properly. | 原因: LifeKeeper を起動しようとしている間に、致命的なエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
010025 | ERROR | Unable to get a unique tag name on server “%s” for template resource “%s” | 原因: ストレージリソースの作成プロセスで適合するタグを自動的に生成できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。他のエラーがない場合は、操作を再試行してください。 |
010034 | FATAL | Unable to start lcm. | 原因: ソフトウェアのコアコンポーネントを開始できませんでした。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
010038 | WARN | Waiting for LifeKeeper core components to initialize has exceeded 10 seconds. Continuing anyway, check logs for further details. | 原因: ソフトウェアの一部が、予想よりも起動に時間がかかっています。 処置: メッセージテキストに記載されている手順を実行してください。 |
010039 | WARN | Waiting for LifeKeeper core components to initialize has exceeded 10 seconds. Continuing anyway, check logs for further details. | 原因: ソフトウェアの一部が、予想よりも起動に時間がかかっています。 処置: メッセージテキストに記載されている手順を実行してください。 |
010046 | ERROR | The dependency creation failed on server $SERVER:" `cat $TEMP_FILE` | 原因: 所定のサーバーで依存関係を作成できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010063 | ERROR | $REMSH error | 原因: 別のサーバーからデータをバックアップする要求が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010085 | ERROR | lkswitchback($MACH): Automatic switchback of \"$loctag\" failed | 原因: リソースが予想どおりにスイッチバックされませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010102 | ERROR | admin machine not specified | 原因: 「getlocks」操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
010107 | WARN | Lock for $m is ignored because system is OOS | 原因: ロックが作成されたシステムがアクティブではないため、ロックは無視されました。 処置: 関連するエラーをログで確認してください。これは無害なエラーの可能性もあります。 |
010108 | ERROR | lock acquisition timeout | 原因: ロックの取得に予想よりも時間がかかりました。または許容時間を超えました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010109 | ERROR | could not get admin locks." `cat /tmp/ER$$` | 原因: ソフトウェアは、リソースの管理に必要なロックの取得に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010112 | ERROR | lcdrcp failed with error no: $LCDRCPRES | 原因: ファイルを別のサーバーにコピーできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010116 | ERROR | unable to set !lkstop flag | 原因: サーバーがユーザの要求によって停止されていることを示すためのフラグを設定できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010121 | ERROR | Extended logs aborted due to a failure in opening $destination. ($syserrmsg) | 原因: 拡張ログファイルを開くときに、ユーティリティ「lkexterrlog」が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010124 | ERROR | lkswitchback($MACH): Automatic switchback of \"$loctag\" to $UNAME is not allowed${delay_msg}. | 原因: $loctag を持つ階層内の 1 つ以上のリソースがスイッチバックできません。 処置: すべてのリソースが使用可能になったら、手動で階層を元に戻してください。 |
010125 | WARN | COMMAND OUTPUT: $LKROOT/bin/lkswitchback | 原因: 現時点ではスイッチバックを完了できません。メッセージで指定された時間内に再試行されます。 処置: 再試行する必要がある場合はなし。遅延リトライを停止するには、 "at" ジョブをキャンセルしてください。 |
010132 | ERROR | Unable to retrieve reservation id from "%s". Error: "%s". Attempting to regenerate. | 原因: SCSI 3 Persistent Reservations に使用する一意の ID の取得元のファイル /opt/LifeKeeper/config/.reservation_id を開くことができません。 処置: ありません。ID の再生成とファイルの更新が試行されます。 |
010134 | ERROR | LifeKeeper does not appear to be running. Unable to determine the uniqueness of the reservation ID within the cluster. | 原因: LifeKeeperが実行されていないため、リソースIDの一意性を確認できません。 処置: LifeKeeper を起動し、”/opt/LifeKeeper/bin/genresid -v” で一意性チェックを再実行してください。 |
010135 | ERROR | The current reservation ID of "%s" is not unique within the cluster. A new ID must be generated by running "%s/bin/genresid -g" on "%s". | 原因: システムに定義されたリザベーション ID は、クラスター内で一意でないため、使用できません。 処置: このノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して一意のリザベーション ID を生成してください。 |
010136 | ERROR | Unable to store reservation id in "%s". Error: "%s" | 原因: SCSI 3 Persistent Reservations に使用する一意の ID の保存先のファイル /opt/LifeKeeper/config.reservation_id を開くことができません。 処置: ファイルを開くことに失敗した理由としてリストされているエラーを修正し、このノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して新しい一意のリザベーション ID を生成してください。 |
010137 | ERROR | Failed to generate a reservation ID that is unique within the cluster. | 原因: 生成したリザベーション ID はすでにクラスター内の別のノードに定義されています。リザベーション ID はクラスター内で一意である必要があります。 処置: このノードのすべてのリソースを out of service にしてから、「/opt/LifeKeeper/bin/genresid -g」を実行して新しい一意のリザベーション ID を生成してください。 |
010138 | ERROR | %s | |
010139 | WARN | %s | |
010140 | ERROR | $COMMAND_SNMPTRAP returned $exitcode for Trap $oid:$result | |
010141 | ERROR | LK_TRAP_MGR is specified in /etc/default/LifeKeeper, but $COMMAND_SNMPTRAP command is not in PATH. | |
010142 | ERROR | $COMMAND_EMAIL returned $exitcode:$result | |
010143 | ERROR | LK_NOTIFY_ALIAS is specified in /etc/default/LifeKeeper, but $COMMAND_EMAIL command is not in PATH. | |
010144 | ERROR | can’t opendir $LICENSE_DIR: $! | |
010145 | ERROR | lktest failed | |
010146 | ERROR | lkcheck failed | |
010147 | ERROR | ins_list failed: exit code = $exit_code | |
010159 | ERROR | Maintenance mode disable currently in progress, can’t enable maintenance mode. If this problem persists, consider using the —force option. | |
010160 | ERROR | Maintenance mode enable currently in progress, can’t disable maintenance mode. If this problem persists, consider using the —force option. | |
010161 | ERROR | $tag is not a valid resource tag on the local machine, aborting. Please check the spelling and try again. | |
010163 | ERROR | $cmd script not found or not executable on system $sys. | |
010165 | ERROR | An error occurred while running \’$LKROOT/lkadm/subsys/appsuite/sap/bin/$cmd -m=${opt_mode}${tag_cmd}${force_cmd}\’ on system $sys (exit code: $remexec_ret). Please inspect the logs on that system for more information. | |
010168 | WARN | Maintenance mode was not fully ${opt_mode}d for at least one resource on system $sys. | |
010172 | ERROR | Maintenance mode was not fully ${opt_mode}d for the requested resources on at least one system in the cluster. | |
010173 | ERROR | LifeKeeper is not running on system $me. Unable to ${opt_mode} maintenance mode. Aborting. | |
010179 | ERROR | Maintenance mode action \’${opt_mode}\’ did not complete successfully for resource $tag on system $me. | |
010181 | ERROR | An error occurred while attempting maintenance mode action \’${opt_mode}\’ on system $me for resources: @{local_hier_tags}. | |
010187 | ERROR | Resource $tag has not been extended to system $sys. | |
010222 | ERROR | scsifree(%s): LKSCSI_Release(%s) unsuccessful | 原因: リザーブされていると思われる SCSI デバイスは予想どおりに解放されませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。システムが正常に機能している場合、このエラーは無害な可能性があります。 |
010231 | ERROR | scsiplock(%s): reserve failed. | 原因: SCSI デバイスでリザーブを取得できませんでした 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010250 | ERROR | Failed to exec command ‘%s’ | 原因: 「lklogmsg」ツールがサブコマンド {command} の実行に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。サブコマンドが存在しており、有効なコマンドまたはプログラムであることを確認してください。通常の操作でこのメッセージが表示された場合は、サポートに問い合わせてください。 |
010256 | ERROR | scsi_tur(%s): open failed. | |
010260 | ERROR | scsi_tur(%s): test unit ready failed. | |
010402 | EMERG | local recovery failure on resource $opts{‘N’}, trigger VMware HA… | 原因: LifeKeeper Single Server Protection の動作中に、リソースを復旧できませんでした。(VMware-HA が有効になっている場合は) 障害を処理するために VMware-HA が間もなくトリガされます。 処置: 処置は必要ありません。VMware が障害を処理してください。 |
010413 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: これは、失敗した可能性がある「snmptrap」コマンドの結果です。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010420 | EMERG | local recovery failure on resource $opts{‘N’}, trigger reboot… | 原因: LifeKeeper Single Server Protection の動作中に、リソースを復旧できませんでした。障害を処理するために再起動が間もなくトリガされます。 処置: 処置は必要ありません。 |
010440 | ERROR | [$SUBJECT event] mail returned $err | 原因: これは、通知電子メールを「mail」コマンドで送信できなかったことを示してください。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010443 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: これは、失敗した可能性がある「mail」コマンドの結果です。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010445 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: これは、失敗した可能性がある「mail」コマンドの結果です。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010463 | ERROR | LifeKeeper: name of machine is not specified, ARGS=$ARGS | 原因: 「comm_down」イベントで無効な引数が指定されました。 処置: LifeKeeper 設定を確認し、操作を再試行してください。 |
010471 | ERROR | COMM_DOWN: Attempt to obtain local comm_down lock flag failed | 原因: 別のノードとの通信障害の処理中に、ローカルロックを取得できませんでした。これにより、フェイルオーバーの処理が中断されます。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。フェイルオーバーが正常に実行されない場合は、サポートに問い合わせてください。 |
010482 | ERROR | LifeKeeper: name of machine is not specified, ARGS=$ARGS | 原因: 「comm_up」イベントで無効な引数が指定されました。 処置: LifeKeeper 設定を確認し、操作を再試行してください。 |
010484 | WARN | flg_list -d $MACH check timed-out ($delay seconds). | 原因: 「flg_list」コマンドがタイムアウト値 {delay} 秒に達しました。 |
010487 | WARN | flg_list -d $MACH check timed-out, unintended switchovers may occur. | 原因: 「flg_list」コマンドがタイムアウト値に達しました。 処置: 意図しないスイッチオーバーが発生した場合は、リソースツリーをスイッチバックしてください。 |
010492 | WARN | $m | 原因: 他のサーバーのいずれかが、このサーバー {server} には稼働していないように見えますが、Witness サーバーが承諾していません。 処置: 他のサーバーが稼働していないことを確認し、リソースを手動でスイッチオーバーしてください。 |
010494 | ERROR | LifeKeeper: COMM_UP to machine $MACH completed with errors. | 原因: 「COMM_UP」イベントの間に、予期しない障害が発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
010503 | ERROR | lcdrecover hung or returned error, attempting kill of process $FPID | 原因: 「lcdrecover」の処理に時間がかかりすぎているか、エラーアウトしています。 |
010506 | ERROR | Intelligent Switchback Check Failed | 原因: 「lcdrecover」を 5 回実行し、いずれも失敗しました。 処置: リソースツリーを手動でスイッチオーバーしてください。 |
010535 | ERROR | LifeKeeper: name of machine is not specified, ARGS=$ARGS | |
010600 | ERROR | removing hierarchy remnants | |
010627 | WARN | Equivalency Trim: does not have a full complement of equivalencies. Hierarchy will be unextended from | 原因: 拡張中にエラーが発生しました。 処置: LifeKeeper のログを確認してください。 |
010629 | WARN | Your hierarchy exists on only one server. Your application has no protection until you extend it to at least one other server. | 原因: 階層は 1 番目のサーバー上にあります。 処置: 階層を 2 番目のサーバーに拡張してください。 |
010712 | ERROR | Unextend hierarchy failed | 原因: サーバーからリソース階層を拡張できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
010746 | ERROR | $ERRMSG Target machine \"$TARGET_MACH\" does not have an active LifeKeeper communication path to machine \"$aMach\" in the hierarchy." >&2 | 原因: ターゲットサーバーがクラスター内の他のサーバーと適切に通信していないため、階層を拡張できません。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。すべてのサーバーが相互にコミュニケーションパスを持っていることを確認してください。 |
010763 | ERROR | lock failed | |
011000 | ERROR | appremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011001 | ERROR | depremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011002 | ERROR | eqvremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011003 | ERROR | flgremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011004 | WARN | Illegal creation of resource | 原因: これは、通常の状態では発生しません。 |
011009 | ERROR | insremote: unknown change field command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011010 | ERROR | insremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011011 | FATAL | %s | 原因: LifeKeeper は IPC キーを取得できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
011012 | FATAL | semget(%s,%c) | 原因: LifeKeeper はセマフォ設定 ID を取得できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
011013 | FATAL | shmget(%s,%c) | 原因: システムは共有メモリセグメントを割り当てることができませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
011014 | FATAL | prefix_lkroot("out")); | 原因: /opt/LifeKeeper/out にアクセス中に、システムエラーが発生しました。 処置: /opt/LifeKeeper/out にアクセスできない理由を特定してください。 |
011015 | ERROR | Please contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product. | 原因: デモライセンスを実行しています。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011016 | ERROR | The product license installed on this system indicates single node operation but the LifeKeeper Single Server Protection package does not appear to be installed. Please install the LifeKeeper SSP package to ensure proper operation | 原因: LifeKeeper Single Server Protection のライセンスがありますが、LifeKeeper Single Server Protection がインストールされていません。 処置: LifeKeeper Single Server Protection をインストールするか、実行している製品に適合するライセンスを入手してください。 |
011018 | ERROR | License manager initialization failed. | 原因: ライセンスマネージャの初期化に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
011020 | EMERG | License manager initialization failed. | 原因: ライセンスマネージャの初期化に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
011021 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011022 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011023 | EMERG | A recovery kit Protection Suite WAS NOT FOUND with the restricted LifeKeeper license. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011024 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011025 | EMERG | A recovery kit Protection Suite WAS NOT FOUND with the restricted LifeKeeper license. | 原因: LifeKeeper は有効なライセンスキーを見つけられませんでした。 処置: ライセンスキーがサーバーに対して有効であることを確認し、操作を再試行してください。 |
011026 | EMERG | Error in obtaining LifeKeeper license key. | 原因: ライセンスに不明な問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011027 | EMERG | A recovery kit Protection Suite WAS NOT FOUND with the restricted LifeKeeper license. | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011028 | ERROR | Error, This version of LifeKeeper must be running in the %c%c locale. The environment variable %s is not set correctly. Please consult your documentation for how to set this. | 原因: 設定されているロケールに問題があります。 処置: マニュアルなどを参照の上、適切なロケールを設定してください。 |
011029 | FATAL | can’t set reply system | 原因: メッセージの送信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もあります。 |
011030 | FATAL | can’t set reply mailbox | 原因: メッセージの送信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もあります。 |
011031 | ERROR | Failure reading output of ‘%s’ on behalf of %s | 原因: 一時ファイル /tmp/OUT.{pid} にアクセスしている際にシステムエラーが発生しました。 処置: /tmp/OUT.{pid} にアクセスできない理由を特定してください。 |
011032 | ERROR | Failure reading output of ‘%s’ | 原因: 一時ファイル /tmp/ERR.{pid} にアクセスしている際にシステムエラーが発生しました。 処置: /tmp/ERR.{pid} にアクセスできない理由を特定してください。 |
011033 | ERROR | event \"%s,%s\" already posted for resource with id \"%s\" | 原因: このメッセージは情報提供の目的でのみ表示されます。 |
011034 | ERROR | no resource has id of \"%s\" | 原因: LifeKeeper は {id} リソースを見つけられませんでした。 処置: パラメーターを確認し、「sendevent」操作を再試行してください。 |
011044 | ERROR | flagcleanup:fopen(%s) | 原因: /opt/LifeKeeper/config/flg を読み取っている際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg を読み取ることができない理由を特定してください。 |
011045 | ERROR | flagcleanup:fopen(%s) | 原因: /opt/LifeKeeper/config/flg を書き込んでいる際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg を書き込むことができない理由を特定してください。 |
011046 | ERROR | flagcleanup:fputs(%s) | 原因: /opt/LifeKeeper/config/flg を書き込んでいる際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg を書き込むことができない理由を特定してください。 |
011047 | ERROR | flagcleanup:rename(%s,%s) | 原因: /opt/LifeKeeper/config/.flg to /opt/LifeKeeper/config/flg の名前を変更している際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/flg の名前を変更できない理由を特定してください。 |
011048 | ERROR | flagcleanup:chmod(%s) | 原因: /opt/LifeKeeper/config/flg の権限を変更している際にシステムエラーが発生しました。 処置: LifeKeeper が /opt/LifeKeeper/config/flg の権限を変更できない理由を特定してください。 |
011049 | ERROR | License check failed with error code %d | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011051 | ERROR | lcdinit: clearing Disk Reserve file failed | 原因: /opt/LifeKeeper/subsys/scsi/resources/disk/disk.reserve を書き込んでいる際にシステムエラーが発生しました 処置: /opt/LifeKeeper/subsys/scsi/resources/disk/disk.reserve を書き込むことができない理由を特定してください。 |
011052 | FATAL | malloc() failed | 原因: システムは LifeKeeper 用にメモリを割り当てられませんでした。 処置: データセグメントのプロセスの上限を増やしてください。 |
011053 | FATAL | /tmp/LK_IS_UNAVAIL | 原因: /tmp/LK_IS_UNAVAIL を書き込んでいる際にシステムエラーが発生しました。 処置: /tmp/LK_IS_UNAVAIL を書き込むことができない理由を特定してください。 |
011054 | FATAL | /tmp/LK_IS_UNAVAIL | 原因: /tmp/LK_IS_UNAVAIL を書き込んでいる際にシステムエラーが発生しました。 処置: /tmp/LK_IS_UNAVAIL を書き込むことができない理由を特定してください。 |
011055 | FATAL | config/LK_IS_ON | 原因: config/LK_IS_ON を書き込んでいる際にシステムエラーが発生しました。 処置: config/LK_IS_ON を書き込むことができない理由を特定してください。 |
011056 | ERROR | License check failed with error code %d | 原因: ライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011057 | ERROR | lcdremote: unknown command type %d(‘%c’)\n | 原因: メッセージの受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバーが通信できない場合は、サーバーのネットワーク設定を確認してください。 |
011059 | FATAL | Could not write to: %s | 原因: /opt/LifeKeeper/config/LK_START_TIME にアクセスしている際にシステムエラーが発生しました。 処置: /opt/LifeKeeper/config/LK_START_TIME にアクセスできない理由を特定してください |
011060 | FATAL | received NULL message | 原因: メッセージの受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバーが通信できない場合は、サーバーのネットワーク設定を確認してください。 |
011061 | ERROR | unknown data type %d(‘%c’) on machine \"%s\"\n | 原因: メッセージの受信に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。これは一時的なエラーの可能性もありますが、このエラーが続き、サーバーが通信できない場合は、サーバーのネットワーク設定を確認してください。 |
011062 | WARN | LifeKeeper shutdown in progress. Unable to perform failover recovery processing for %s\n | 原因: LifeKeeper はシャットダウン中に所定のリソースをフェイルオーバーできませんでした。 処置: リソースツリーを別のサーバーに手動でスイッチオーバーしてください。 |
011063 | WARN | LifeKeeper resource initialization in progress. Unable to perform failover recovery processing for %s\n | 原因: LifeKeeper は起動中に所定のリソースをフェイルオーバーできませんでした。 処置: LifeKeeper が起動したら、リソースツリーを手動でスイッチオーバーしてください。 |
011068 | ERROR | ERROR on command %s | 原因: 「rlslocks」コマンドの実行中にエラーが発生しました。 処置: 隣接するメッセージで詳細を確認してください。 |
011070 | ERROR | ERROR on command %s | 原因: 「getlocks」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
011080 | FATAL | out of memory | 原因: 内部エラー。 処置: データセグメントのプロセスの上限値を増やしてください。 |
011081 | FATAL | Failed to ask ksh to run: %s | 原因: ksh の呼び出し中にシステムエラーが発生しました。 処置: pdksh (v8.0 以前) または steeleye-pdksh (v81 以降) のパッケージがインストールされていることを確認してください。 |
011082 | ERROR | Failed to remove: %s | 原因: /tmp/LCM_IS_UNAVAIL を削除している際にシステムエラーが発生しました。 処置: /tmp/LCM_IS_UNAVAIL を削除できない理由を特定してください。 |
011083 | ERROR | Failed to remove: %s | 原因: /tmp/LK_IS_UNAVAIL をリンク解除している際にシステムエラーが発生しました。 処置: /tmp/LK_IS_UNAVAIL をリンク解除できない理由を特定してください。 |
011084 | FATAL | Failed to generate an IPC key based on: %s | 原因: /opt/LifeKeeper にアクセス中に、システムエラーが発生しました。 処置: /opt/LifeKeeper にアクセスできない理由を特定してください。 |
011085 | ERROR | semget(%s,%c) failed | 原因: セマフォを削除している際にシステムエラーが発生しました。 処置: セマフォを手動で削除してください。 |
011086 | ERROR | shmget(%s,%c) failed | 原因: 共有メモリセグメントを削除している際にシステムエラーが発生しました。 処置: 共有メモリセグメントを手動で削除してください。 |
011087 | ERROR | semctl(IPC_RMID) failed | 原因: セマフォを削除している際にシステムエラーが発生しました。 処置: セマフォを手動で削除してください。 |
011088 | ERROR | shmctl(IPC_RMID) failed | 原因: 共有メモリセグメントを削除している際にシステムエラーが発生しました。 処置: 共有メモリセグメントを手動で削除してください。 |
011089 | FATAL | Execution of lcdstatus on remote system <%s> failed\n | 原因: リモート {node} がダウンし、ネットワークからアクセスできません。または、リモートノードで別のシステムに問題が発生しています。 処置: リモートノードをオンラインにするか、隣接するメッセージで詳細を確認するか、リモートノードのログで詳細を確認してください。 |
011090 | FATAL | 原因: 内部エラー。 処置: メッセージ本文に記載されている手順を実行してください。 |
|
011091 | WARN | 原因: これは通常の状況では発生しません。 |
|
011092 | FATAL | 原因: ライセンスに問題があります。 対応: メッセージ本文に記載されている手順を実行してください。 |
|
011093 | FATAL | 原因: ライセンスに問題があります。 対応: メッセージ本文に記載されている手順を実行してください。 |
|
011094 | FATAL | 原因:ライセンスに問題があります。 対応: メッセージ本文に記載されている手順を実行してください。 |
|
011095 | FATAL | 原因: ライセンスに問題があります。 対応:メッセージ本文に記載されている手順を実行してください。 |
|
011096 | FATAL | 原因: ライセンスに問題があります。 対応: メッセージ本文に記載されている手順を実行してください。 |
|
011097 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011098 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011099 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011100 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011101 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011102 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011103 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011104 | FATAL | 原因: ライセンスに問題があります。 対応: 新しいライセンスを取得するには、サポートに連絡してください。 |
|
011105 | FATAL | 原因: ライセンスに問題があります。 対応: メッセージ本文に記載されている手順を実行してください。 |
|
011111 | ERROR | action \"%s\" on resource with tag \"%s\" has failed | 原因: リソース {tag} のアクション {action} に失敗しました。 処置: 隣接するメッセージで詳細を確認してください。 |
011112 | ERROR | netremote: network “%s” with device “%s” not found on “%s” | 原因: LifeKeeper はネットワークデバイスを見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
011113 | ERROR | netremote: unknown subcommand type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011114 | ERROR | netremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011117 | ERROR | sysremote: system \"%s\" not found on \"%s\" | 原因: 無効なシステム名が指定されました。 処置: システム名を再確認し、コマンドを再実行してください。 |
011118 | ERROR | sysremote: unknown subcommand type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011119 | ERROR | sysremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011120 | ERROR | typremote: unknown command type %d(‘%c’)\n | 原因: 内部エラー。 処置: 製品を再起動してください。 |
011129 | ERROR | Failure during run of ‘%s’ on behalf of %s | 原因: コマンドの実行に失敗しました。 処置: メッセージで詳細を確認し、問題を特定してください。 |
011130 | ERROR | %s | 原因: コマンド {command} が予期しない結果になりました。 処置: 隣接するエラーメッセージの内容に従って処置を実行してください。 |
011131 | EMERG | \nERROR!\nThe update of the expiration timestamp for the evaluation version of the LifeKeeper product on this system has failed. The evaluation product will no longer execute.\n\nPlease contact the original supplier of your evaluation software for assistance.\n\n | 原因: デモライセンスに問題があります。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011132 | EMERG | \nERROR!\nThe expiration timestamp associated with the evaluation version of the LifeKeeper product on this system has been improperly altered. The evaluation software expires immediately.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスで、時間の改ざんが検出されました。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011133 | EMERG | \nERROR!\nThe expiration timestamp associated with the evaluation version of the LifeKeeper product on this system has been improperly altered. The evaluation software expires immediately.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスで、時間の改ざんが検出されました。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011134 | EMERG | \nERROR!\nThe evaluation version of the LifeKeeper product on this system has expired.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: この製品のデモライセンスが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011135 | EMERG | \nERROR!\nThe expiration timestamp associated with the evaluation version of the LifeKeeper product on this system has been improperly altered. The evaluation software expires immediately.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスで、時間の改ざんが検出されました。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011136 | EMERG | \nIMPORTANT NOTICE!\nThe LifeKeeper product running on this system is an evaluation version which will expire on %s\nTo continue functioning beyond that time, the software must be upgraded to the permanent version.\n\nPlease contact the original supplier of your evaluation software, or visit http://www.us.sios.com for information about purchasing a permanent version of the LifeKeeper product.\n\n | 原因: デモライセンスを実行しています。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011138 | EMERG | The LifeKeeper product on this system is using an evaluation license key which will expire at midnight on %s. To continue functioning beyond that time, a permanent license key must be obtained. | 原因: デモライセンスを実行しています。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011142 | WARN | LifeKeeper Recovery Kit %s license key NOT FOUND | 原因: {kit} の Application Recovery Kit のライセンスが見つかりませんでした。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011150 | ERROR | COMMAND OUTPUT: %s | 原因: コマンド「eventslcm」が予期しない結果になりました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
011151 | EMERG | %s | 原因: このバージョンの LifeKeeper Core パッケージは、中華人民共和国内または日本国内での使用に限られています。 |
011152 | EMERG | Localized license failure | 原因: お客様のロケールと製品ライセンスが作成されたロケールが一致していません。 処置: サポートに問い合わせ、お客様のロケールに合った新しいライセンスを入手してください。 |
011154 | EMERG | Single Node flag check failed. | 原因: LifeKeeper Single Server Protection のライセンスがありますが、LifeKeeper Single Server Protection がインストールされていません。 処置:LifeKeeper Single Server Protection をインストールするか、実行している製品に適合するライセンスを入手してください。 |
011155 | EMERG | %s | 原因: この製品のライセンスキーが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011162 | EMERG | %s | 原因: この製品のライセンスキーが期限切れです。 処置: サポートに問い合わせ、新しいライセンスを入手してください。 |
011163 | EMERG | Single Node license check failed | 原因: LifeKeeper Single Server Protection のライセンスがありますが、LifeKeeper Single Server Protection がインストールされていません。 処置: LifeKeeper Single Server Protection をインストールするか、実行している製品に適合するライセンスを入手してください。 |
011164 | EMERG | %s | 原因: この製品のライセンスキーが期限切れです。 処置: サポートに問い合わせ、製品のパーマネントライセンスキーを入手してください。 |
011165 | ERROR | LifeKeeper initialize timed out in tag \"%s\" | |
015000 | ERROR | COMMAND OUTPUT: /opt/LifeKeeper/sbin/chpst | 原因: 「steeleye-lighttpd」プロセスでエラーが発生しました。エラーの詳細は実際のログメッセージに記載されています。 処置: 設定を修正すると、「steeleye-lighttpd」が自動的に再起動します。 |
103001 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: db2nodes.cfg にサーバー名が含まれていません。 処置: db2nodes.cfg が有効であることを確認してください。 |
103002 | ERROR | LifeKeeper was unable to get the version for the requested instance "%s" | 原因:「db2level」コマンドが DB2 のバージョンを返しませんでした。 処置: DB2 の設定を確認してください。 |
103003 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103004 | ERROR | Unable to get the information for resource "%s" | 原因: リソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103005 | ERROR | Unable to get the information for resource "%s" | 原因: リソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103006 | ERROR | Unable to get the instance information for resource "%s" | 原因: インスタンス情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103007 | ERROR | Unable to get the instance home directory information for resource "%s" | 原因: インスタンスのホームディレクトリのパスの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103008 | ERROR | Unable to get the instance type information for resource "%s" | 原因: DB2 Application Recovery Kit は、無効なインスタンスタイプを見つけました。 処置: LifeKeeper の設定を確認してください。 |
103009 | ERROR | LifeKeeper has encountered an error while trying to get the database configuration parameters for database "$DB" | 原因: 「db2 get db cfg for $DB」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103012 | ERROR | LifeKeeper was unable to start the database server for instance "%s" | 原因: 要求された DB2 インスタンスの起動が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「restore」操作を再試行してください。 |
103013 | ERROR | LifeKeeper was unable to start the database server for instance "%s" | 原因: 要求された DB2 インスタンスの起動が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「restore」操作を再試行してください。 |
103015 | ERROR | An entry for the home directory "%s" of instance "%s" does not exist in "/etc/fstab" | 原因: マルチパーティションのデータベースのインスタンスのホームディレクトリは、「/etc/fstab」に存在する必要があります。 処置: ホームディレクトリが「/etc/fstab」に存在することを確認してください。 |
103016 | ERROR | LifeKeeper was unable to mount the home directory for the DB2 instance "%s" | 原因: マルチパーティションのデータベースのインスタンスのホームディレクトリをマウントできませんでした。 処置: ホームディレクトリがマウントされていることを確認し、操作を再試行してください。 |
103017 | ERROR | Unable to get the instance nodes information for resource "%s" | 原因: インスタンスノードの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103018 | ERROR | LifeKeeper was unable to start database partition server "%s" for instance "%s" | 原因: 要求された DB2 インスタンスの起動が失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「restore」操作を再試行してください。 |
103020 | ERROR | LifeKeeper was unable to stop the database server for instance "%s" | 原因: 要求された DB2 インスタンスのシャットダウンが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「remove」操作を再試行してください。 |
103021 | ERROR | LifeKeeper was unable to stop the database server for instance "%s" | 原因: 要求された DB2 インスタンスのシャットダウンが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「remove」操作を再試行してください。 |
103023 | ERROR | Unable to get the instance nodes information for resource "%s" | 原因: インスタンスノードの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103024 | ERROR | LifeKeeper was unable to stop database partition server "%s" for instance "%s" | 原因: 要求された DB2 インスタンスのシャットダウンが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「remove」操作を再試行してください。 |
103026 | ERROR | Unable to get the instance nodes information for resource "%s" | 原因: インスタンスノードの取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103027 | FATAL | The argument for the DB2 instance is empty | 原因: 作成操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
103028 | FATAL | Unable to determine the DB2 instance home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
103029 | FATAL | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103030 | FATAL | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103031 | ERROR | The path "%s" is not on a shared filesystem | 原因: インスタンスのホームディレクトリは、共有ファイルシステム上になければなりません。 処置: パスが共有ファイルシステム上にあることを確認し、作成操作を再試行してください。 |
103032 | ERROR | LifeKeeper was unable to get the DB tablespace containers for instance "%s" or the log path for one of its databases | 原因: LifeKeeper はデータベースのテーブルスペースコンテナの場所を特定できなかったか、コンテナがマウント済みのファイルシステム上のパスにあることを確認できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。レポートされているエラーを修正してから、「create」操作を再試行してください。 |
103033 | ERROR | The path "%s" is not on a shared filesystem | 原因: データベースのテーブルスペースコンテナのパスは、共有ファイルシステム上になければなりません。 処置: データベースのテーブルスペースコンテナが共有ファイルシステム上にあることを確認し、操作を再試行してください。 |
103034 | ERROR | A DB2 Hierarchy already exists for instance "%s" | 原因: LifeKeeper によってすでに保護されている DB2 インスタンスを保護しようとしました。 処置: 別の DB2 インスタンスを LifeKeeper の保護用に選択する必要があります。 |
103035 | ERROR | The file system resource "%s" is not in-service | 原因: DB2 リソースが依存するファイルシステムは in service である必要があります。 処置: ファイルシステムリソースが in service であることを確認して、「create」操作を再試行してください。 |
103036 | ERROR | Unable to create the hierarchy for raw device "%s" | 原因: LifeKeeper は、リソース {raw device} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
103037 | ERROR | A RAW hierarchy does not exist for the tag "%s" | 原因: LifeKeeper は、raw リソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
103038 | ERROR | LifeKeeper was unable to create a dependency between the DB2 hierarchy "%s" and the Raw hierarchy "%s" | 原因: 要求された親 DB2 リソースと子 Raw リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、「create」操作を再試行してください。 |
103039 | ERROR | LifeKeeper could not disable the automatic startup feature of DB2 instance "%s" | 原因: DB2 の設定を更新しようとして、予期しないエラーが発生しました。 処置: システム起動時にインスタンスが自動で起動されないようにするために、DB2AUTOSTART を手動で更新する必要があります。 |
103040 | ERROR | DB2 version "%s" is not installed on server "%s" | 原因: LifeKeeper は DB2 のインストール場所を見つけられませんでした。 処置: DB2 の設定を確認してください。 |
103041 | ERROR | The instance owner "%s" does not exist on target server "%s" | 原因: 「canextend」操作または「extend」操作の間に、テンプレートサーバーから DB2 インスタンスの所有者を取得できませんでした。 処置: 指定したサーバーに DB2 インスタンスの所有者が存在していることを確認してください。所有者が存在しない場合、クラスター内のすべてのサーバーで、同じ uid および gid を使用して作成する必要があります。 |
103042 | ERROR | The instance owner "%s" uids are different on target server "%s" and template server "%s" | 原因: DB2 インスタンスの所有者 {user} のターゲットサーバー {target server} のユーザ ID が、テンプレートサーバー {template server} のユーザ {user} の値と一致しません。 処置: DB2 インスタンスの所有者 {user} のユーザ ID はクラスター内のすべてのサーバーで一致している必要があります。ユーザ ID の不一致をすべてのサーバーで手動で修正し、「canextend」操作を再試行する必要があります。 |
103043 | ERROR | The instance owner "%s" gids are different on target server "%s" and template server "%s" | 原因:DB2 インスタンスの所有者 {user} のターゲットサーバー {target server} のグループ ID が、テンプレートサーバー {template server} のユーザ {user} の値と一致しません。 処置: DB2 インスタンスの所有者 {user} のグループ ID はクラスター内のすべてのサーバーで一致している必要があります。グループ ID の不一致をすべてのサーバーで手動で修正し、「canextend」操作を再試行する必要があります。 |
103044 | ERROR | The instance owner "%s" home directories are different on target server "%s" and template server "%s" | 原因: ターゲットサーバー {target server} のユーザ {user} のホームディレクトリが、テンプレートサーバー {template server} の DB2 インスタンスの所有者のホームディレクトリと一致しません。 処置: DB2 インスタンスの所有者 {user} のホームディレクトリは、クラスター内のすべてのサーバーで一致している必要があります。ディレクトリの不一致をすべてのサーバーで手動で修正し、「canextend」操作を再試行する必要があります。 |
103045 | ERROR | LifeKeeper was unable to get the DB2 "SVCENAME" parameter for the DB2 instance | 原因: 「db2 get dbm cfg」コマンドの実行中に予期しないエラーが発生しました。 処置: DB2 の設定を確認してください。 |
103046 | ERROR | Unable to get the value of the DB2 "SVCENAME" parameter for the DB2 instance %s. | 原因: DB2 の「SVCENAME」パラメーターが null に設定されています。 処置: DB2 の設定を確認してください。 |
103047 | ERROR | LifeKeeper was unable to get the contents of the "/etc/services" file on the server "%s" | 原因: テンプレートサーバーの「/etc/services」に、DB2 インスタンスのサービス名が含まれていません。 処置: 「/etc/services」内にある DB2 インスタンスのサービス名は、クラスター内のすべてのサーバーで一致している必要があります。サービス名の不一致をすべてのサーバーで手動で修正し、「canextend」操作を再試行する必要があります。 |
103048 | ERROR | LifeKeeper was unable to get the contents of the "/etc/services" file on the server "%s" | 原因: ターゲットサーバーの「/etc/services」に、DB2 インスタンスのサービス名が含まれていません。 処置: 「/etc/services」内にある DB2 インスタンスのサービス名は、クラスター内のすべてのサーバーで一致している必要があります。サービス名の不一致をすべてのサーバーで手動で修正し、「canextend」操作を再試行する必要があります。 |
103049 | ERROR | The "/etc/services" entries for the instance "%s" are different on target server "%s" and template server "%s" | 原因: インスタンスの「/etc/services」エントリに不一致があります。 処置: 「/etc/services」内にある DB2 インスタンスのサービス名は、クラスター内のすべてのサーバーで一致している必要があります。サービス名の不一致をすべてのサーバーで手動で修正し、「canextend」操作を再試行する必要があります。 |
103050 | ERROR | The home directory "%s" for instance "%s" is not mounted on server "%s" | 原因: LifeKeeper はマルチパーティションインスタンス用の db2nodes.cfg を見つけられませんでした。 処置: ホームディレクトリがマウントされていることを確認し、操作を再試行してください。 |
103051 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: テンプレートサーバーからのリソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
103052 | ERROR | LifeKeeper was unable to add instance "%s" and/or its variables to the DB2 registry | 原因:「db2iset」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103053 | ERROR | Usage: %s instance | |
103054 | ERROR | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103055 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103056 | ERROR | Usage: %s instance | |
103058 | ERROR | Usage: %s instance | |
103059 | ERROR | Usage: %s instance | |
103060 | ERROR | Unable to determine the DB2 instance home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
103061 | ERROR | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103062 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスの該当するノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103063 | ERROR | Unable to determine the DB2 install path | 原因: DB2 Application Recovery Kit は、そのインスタンスの DB2 を見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103064 | ERROR | Usage: nodes -t tag -a add_nodenum | nodes -t tag -d delete_nodenum | nodes -t tag -p | |
103065 | ERROR | Invalid input provided for "%s" utility operation, characters are not allowed. | 原因: 「nodes」コマンドで無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
103066 | ERROR | Unable to get the information for resource "%s" | 原因: LifeKeeper は、リソース {tag} を見つけられませんでした。 処置: パラメーターを確認し、操作を再試行してください。 |
103067 | ERROR | The DB2 instance "%s" is not a EEE or Multiple Partition instance | 原因: リソースタグ {tag} はシングルパーティションインスタンスです。 処置: パラメーターを確認し、操作を再試行してください。 |
103069 | ERROR | Node "%s" is already protected by this hierarchy | 原因: 「nodes」コマンドで無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
103070 | ERROR | Node number "%s" is the last remaining node protected by resource "%s". Deleting all nodes is not allowed. | 原因: 「nodes」コマンドで無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
103071 | ERROR | LifeKeeper is unable to get the equivalent instance for resource "%s" | 原因: 「nodes」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103072 | ERROR | Unable to set NodesInfo for resource "%s" on "%s" | 原因: 「nodes」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103073 | ERROR | Unable to set NodesInfo for resource "%s" on "%s" | 原因: 「nodes」コマンドの実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
103074 | ERROR | Usage: %s instance | |
103075 | ERROR | Usage: %s instance | |
103076 | ERROR | Unable to determine the DB2 instance type | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのタイプを特定できませんでした。 処置: DB2 の設定を確認してください。 |
103077 | ERROR | Unable to determine the DB2 instance home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
103078 | ERROR | The database server is not running for instance "%s" | 原因: DB2 インスタンスのプロセスチェックで、実行中のプロセスが見つかりませんでした。 処置: DB2 インスタンスを開始してください。 |
103079 | ERROR | LifeKeeper has detected an error while trying to determine the node number(s) of the DB partition server(s) for the instance | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのノードを見つけることができませんでした。 処置: DB2 の設定を確認してください。 |
103080 | ERROR | One or more of the database partition servers for instance "%s" is down | 原因: すべてのデータベースパーティションサーバーが実行されている必要があります。 処置: すべてのデータベースパーティションサーバーが実行されていることを確認し、操作を再試行してください。 |
103081 | ERROR | DB2 local recovery detected another recovery process in progress for "%s" and will exit. | |
103082 | ERROR | Failed to create flag "%s" | 原因: DB2 ローカルリカバリー処理を制御するためのフラグを作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
103083 | ERROR | Failed to remove flag "%s" | 原因: DB2 ローカルリカバリー処理を制御するためのフラグを削除しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
103084 | ERROR | Unable to determine the DB2 instance \"$Instance\" home directory | 原因: DB2 Application Recovery Kit は、DB2 インスタンスのホームディレクトリを特定できませんでした。 処置: インスタンスの所有者の名前がインスタンス名と同じであることを確認し、操作を再試行してください。 |
104002 | FATAL | $msg | 原因: このメッセージは内部ソフトウェアエラーを示します。 処置: スタックトレースにエラーの原因が示されます。 |
104003 | FATAL | $self->Val('Tag') . " is not an SDR resource"); | 原因: 非データレプリケーションリソースに対してデータレプリケーションアクションが実行されました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104010 | ERROR | $self->{'md'}: bitmap merge failed, $action | 原因: ビットマップのマージ操作に失敗しました。 処置: ターゲットサーバーにミラーや保護されたファイルシステムがマウントされている可能性があります。または、ビットマップファイルがターゲットに見つからない可能性があります。ターゲットサーバーを確認してください。 |
104022 | ERROR | $argv[1]: mdadm failed ($ret) | 原因: 「mdadm」コマンドによるミラーへのデバイスの追加に失敗しました。 処置: これは通常、一時的な状態です。 |
104023 | ERROR | $_); | 原因: メッセージに「mdadm」コマンドの結果が含まれています。 |
104025 | ERROR | failed to spawn monitor | 原因: システムは、「mdadm -F」監視プロセスの開始に失敗しました。これは、通常の状態では発生しません。 処置: システムを再起動し、競合の可能性があるものが解決されていることを確認してください。 |
104026 | ERROR | cannot create $md | 原因: ミラーデバイスを作成できませんした。 処置: デバイスがまだ使用中ではないこと、およびミラー作成用の他の全パラメーターが正しいことを確認してください。 |
104027 | ERROR | $_ | 原因: このメッセージに「mdadm」コマンドの結果が含まれています。 |
104035 | ERROR | Too many failures. Aborting resync of $md | 原因: 正常範囲とは思われないほど長い時間、デバイスがビジー状態です。 処置: システムを再起動し、デバイスがビジーではなくなっていることを確認してください。 |
104036 | ERROR | Failed to start nbd-server on $target (error $port) | 原因: ターゲットサーバーで nbd-server プロセスを開始できませんでした。 処置: ターゲットディスクデバイスが使用可能であること、およびデバイス ID が変更されていないことを確認してください。 |
104037 | ERROR | Failed to start compression (error $port) | 原因: システムは、「バランス」トンネルプロセスを開始できませんでした。または、ネットワークに問題が発生しました。 処置: ネットワークが正常に実行されていること、および 10000 ~ 10512 の範囲内にある TCP ポートがオープンで未使用の状態にあることを確認してください。ソフトウェアがすべてのシステムに正常にインストールされていることを確認してください。 |
104038 | ERROR | Failed to start nbd-client on $source (error $ret) | 原因: nbd-client プロセスをソースサーバーで開始できませんでした。 処置: レポートされている errno 値を調べ、レポートされている問題を解決してください。たとえば、errno 値 110 は「Connection timed out」(接続のタイムアウト)を示します。これは、ネットワークかファイアーウォールに問題がある可能性があります。 |
104039 | ERROR | Failed to add $nbd to $md on $source | 原因: これは通常、一時的な状態です。 処置: このエラーが続く場合、システムを再起動し、競合の可能性があるものを解決してください。 |
104045 | ERROR | failed to stop $self->{'md'} | 原因: ミラーデバイスを停止できませんした。 処置: デバイスがビジーでないこと、またはマウントされていないことを確認してください。「mdadm —stop」を手動で実行し、デバイスを停止してください。 |
104048 | WARN | failed to kill $proc, pid $pid | 原因: プロセスをシグナル化できませんでした。これは、プロセスが終了していることを示している可能性があります。 処置: 問題のプロセスが実行されていないことを確認し、実行されている場合は、システムを再起動して、終了できないプロセスを消去してください。 |
104050 | ERROR | Setting $name on $dest failed: $ret. Please try again. | 原因: システムは「mirrorinfo」ファイル設定を設定できませんでした。 処置: ネットワークとシステムを確認し、ミラー設定操作を再試行してください。 |
104052 | FATAL | Specified existing mount point "%s" is not mounted | 原因: マウントポイントがアンマウント状態になりました。 処置: マウントポイントがマウントされていることを確認し、操作を再試行してください。 |
104055 | ERROR | Failed to set up temporary $type access to data for $self->{'tag'}. Error: $ret | 原因: ターゲットサーバーでファイルシステムまたはデバイスを使用できません。ミラーされたデータは、ミラーが一時停止してから再開されるまでターゲットサーバーでは使用できません。 処置: ターゲットサーバーを再起動し、競合の可能性があるものを解決してください。 |
104057 | ERROR | Failed to undo temporary access for $self->{'tag'} on $self->{'sys'}. Error: $ret. Please verify that $fsid is not mounted on server $self->{'sys'}. | 原因: ターゲットサーバーでファイルシステムをアンマウントできませんでした。 処置: ファイルシステムおよびデバイスがターゲットサーバーでビジーでないことを確認してください。ターゲットサーバーを再起動し、競合の可能性があるものを解決してください。 |
104062 | FATAL | Cannot find a device with unique ID "%s" | 原因: ターゲットディスクを識別できませんでした。 処置: 適切なストレージリカバリーキットがターゲットサーバーにインストールされていることを確認してください。ターゲットディスクのデバイス ID が変更されていないことを確認してください。 |
104066 | FATAL | Cannot get the hardware ID of device "%s" | 原因: ターゲットディスクデバイスの一意の ID が見つかりませんでした。 処置: 適切なストレージリカバリーキットがターゲットサーバーにインストールされていることを確認してください。ターゲットディスクのデバイス ID が変更されていないことを確認してください。 |
104067 | FATAL | Asynchronous writes cannot be enabled without a bitmap file | 原因: 無効なパラメーターでミラーを作成しようとしました。 処置: ビットマップファイルパラメーターを指定するか、同期書き込みを指定する必要があります。 |
104068 | FATAL | Failed to extend dependent resource %s to system %s. Error %s | 原因: 階層の拡張操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104070 | FATAL | Unable to extend the mirror "%s" to system "%s" | 原因: 階層の拡張操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104071 | ERROR | Failed to restore target device resources on $target->{'sys'} : $err | 原因: ターゲットサーバーで in service 操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104074 | FATAL | Cannot get the hardware ID of device "%s" | 原因: ミラーに使用しようとしている基本のディスクデバイスを認識するストレージリカバリーキットがありません。 処置: 適切なストレージリカバリーキットがインストールされていることを確認してください。必要に応じ、/opt/LifeKeeper/subsys/scsi/resources/DEVNAME/device_pattern ファイルにデバイス名を入れてください。 |
104081 | FATAL | Cannot make the %s filesystem on "%s" (%d): | 原因: 「mkfs」コマンドが失敗しました。 処置:ディスクデバイスが書き込み可能で、エラーがないこと、および選択したファイルシステムのファイルシステムツールがインストールされていることを確認してください。 |
104082 | FATAL | %s | 原因: このメッセージに「mkfs」コマンドの結果が含まれています。 |
104083 | FATAL | Cannot create filesys hierarchy "%s" | 原因: リソースの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104086 | ERROR | The "%s_data_corrupt" flag is set in "%s/subsys/scsi/resources/netraid/" on system "%s". To avoid data corruption, LifeKeeper will not restore the resource. | 原因: 予期しないデータ破損を防ぐための警告データとして data corrupt フラグファイルが設定されています。ファイルが削除されるまで、このサーバー上のミラーをリストアできません。 処置: 問題のサーバーでデータが有効な場合、以下のいずれかを実行できます。1) ファイルを削除してミラーをリストアしてください。2) LifeKeeper GUI または「mirror_action force」コマンドでミラーを強制的にオンラインにしてください。 |
104092 | ERROR | Mirror target resource movement to system %s : status %s | 原因: 階層のスイッチオーバー操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104099 | ERROR | Unable to unextend the mirror for resource "%s" from system "%s" | 原因: 階層の拡張解除に失敗しました。 処置: ターゲットサーバーを再起動し、競合の可能性があるものを解決して、操作を再試行してください。 |
104106 | ERROR | remote 'bitmap -m' command failed on $target->{'sys'}: $ranges | 原因: ターゲットサーバーでビットマップマージコマンドが失敗しました。これには、次の 2 つの原因が考えられます。1) ビットマップファイルが見つからないか、破損している。2) ミラー(md)デバイスがターゲットでアクティブになっている。 処置: ミラーおよび保護されているファイルシステムがターゲットでアクティブになっていることを確認してください。ターゲットのビットマップファイルが見つからない場合、ミラーを一時停止して再開し、ビットマップファイルを再作成してください。 |
104107 | ERROR | Asynchronous writes cannot be enabled without a bitmap file | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104108 | ERROR | Local Partition not available | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104109 | ERROR | Cannot get the hardware ID of device "%s" | 原因: ディスクデバイスの一意の ID を特定できませんでした。 処置: 適切なストレージリカバリーキットがサーバーにインストールされていることを確認してください。ディスクのデバイス ID が変更されていないことを確認してください。 |
104111 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104112 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104113 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104114 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104115 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104117 | FATAL | Insufficient input parameters for "%s" creation | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104118 | FATAL | Cannot unmount existing Mount Point "%s" | 原因: マウントポイントがビジーです。 処置: ファイルシステムがビジーではないことを確認してください。ファイルシステムにアクセスする可能性があるプロセスまたはアプリケーションを停止してください。 |
104119 | FATAL | Invalid data replication resource type requested ("%s") | 原因: ミラー作成操作で無効なパラメーターが指定されました。 |
104124 | EMERG | WARNING: A temporary communication failure has occurred between systems %s and %s. In order to avoid data corruption, data resynchronization will not occur. MANUAL INTERVENTION IS REQUIRED. In order to initiate data resynchronization, you should take one of the following resources out of service: %s on %s or %s on %s. The resource that is taken out of service will become the mirror target. | 原因: ソースサーバーとターゲットサーバーの間で、一時的な通信障害 (スプリットブレインシナリオ) が発生しました。 処置: メッセージテキストに記載されている手順を実行してください。 |
104125 | ERROR | failed to start '$cmd $_[2] $user_args' on '$_[3]': | 原因: 指定したコマンドが失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104126 | ERROR | $_ | 原因: このメッセージに、メッセージ 104125 で失敗したとレポートされているコマンドの結果が含まれています。 |
104128 | FATAL | comm path/server not specified | 原因: netraid.down スクリプトが、通信パスまたはサーバー名を指定せずに呼び出されました。このスクリプトは内部で呼び出されるため、常に適切なパラメーターを使用する必要があります。 処置: このエラーを SIOS サポートに報告してください。 |
104129 | WARN | The replication connection for mirror “%s” (resource: “%s”) is down (reason: %s) | 原因: ミラーへのレプリケーションの接続がダウン状態です。 処置: ネットワークを確認してください。 |
104130 | ERROR | Mirror resize failed on %s (%s). You must successfully complete this operation before using the mirror. Please try again. | 原因: ミラーのサイズ変更操作で、リストされたシステム上にあるミラーのメタデータの更新に失敗しました。 処置: ミラーを使用するには、サイズヘンコウを正常に完了する必要があります。「mirror_resize」を再実行してください (必要に応じて、強制実行する -f を使用)。 |
104132 | ERROR | The partition "%s" has an odd number of sectors and system "%s&qquot; is running kernel >= 4.12. Mirrors with this configuration will not work correctly with DataKeeper. Please see the SIOS product documentation for information on how to resize the mirror. | 原因: ミラーの作成用に選択されたパーティションまたはディスクには奇数のディスクセクターがあるため、DataKeeperで使用するにはサイズを変更する必要があります。 処置: 「parted」コマンドを使用してパーティションのサイズを変更するか、可能な場合はプラットフォーム(VMware、AWS)ツールを使用してディスクのサイズを変更してください。注記:データが失われる可能性があるため、この操作は慎重に行ってください。 |
104136 | ERROR | Extend failed. | 原因: 階層の拡張操作に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104143 | ERROR | Mirror resume was unsuccessful ($ret) | 原因:ミラーを確立できませんした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
104144 | ERROR | Unable to stop the mirror access for $self->{'md'} on system $self->{'sys'}. Error: $ret. Use the "mdadm —stop $self->{'md'}" command to manually stop the mirror. | 原因: ミラーの一時停止時にターゲットノード上に作成されたミラーデバイスを停止できませんでした。 処置: デバイスがビジーでないこと、またはマウントされていないことを確認してください。「mdadm —stop」を手動で実行し、デバイスを停止してください。 |
104145 | WARN | Unable to dirty full bitmap. Setting fullsync flag. | 原因: ビットマップ全体をダーティにすることによる完全な再同期を実行できませんでした。代わりに fullsync フラグが使用されます。完全な同期は実行されるので、これは致命的なエラーではありません。 処置: ありません |
104146 | EMERG | WARNING: The target system %s for mirror %s has the target mirror %s currently active. In order to avoid data corruption, data resynchronization will not occur. MANUAL INTERVENTION IS REQUIRED. In order to initiate data resynchronization, you should reboot system %s. | 原因: ミラーがターゲットシステムで構成されています。 処置: ターゲットシステムを再起動する必要があります。 その後、DataKeeperはミラーを再同期できるようになります。 |
104147 | EMERG | WARNING: The target system %s for mirror %s has the target disk %s currently mounted. In order to avoid data corruption, data resynchronization will not occur. MANUAL INTERVENTION IS REQUIRED. In order to initiate data resynchronization, you should unmount %s on %s. A full resync will occur. | 原因: ミラーディスクがターゲットシステムにマウントされています。 処置: 完全なミラー再同期を開始するには、ミラーディスクをターゲットシステムでアンマウントする必要があります。ディスクで追跡されていない変更が発生したため、完全な再同期が必要です。 |
104148 | EMERG | The storage configuration for mirror "%s (%s)" does not have a unique identifier and may have potential for data corruption in some environments in certain circumstances. Please refer to the SIOS Product Documentation for details on DataKeeper storage configuration options. | 原因: ミラーリング用に選択されたディスクが、オペレーティングシステムにUUIDを提供していません。DataKeeperはUUIDがないとディスクをミラーできません。 処置: ディスク上にGPTパーティションテーブルを作成して、ディスクパーティションにUUIDを提供できます。 DataKeeper for Linux トラブルシューティング を参照してください。 |
104155 | EMERG | The mirror %s cannot be forced online at this time. The underlying disk %s is mounted, indicating possible data corruption. MANUAL INTERVENTION IS REQUIRED. You must unmount %s on %s and restore the mirror to the last known mirror source system. A full resync will need to be performed from the source system to %s. | 原因: ターゲットシステムでミラーディスクがマウントされた。 処置: データ破損を防ぐため、すぐにディスクをアンマウントしてください。 |
104156 | WARN | Resynchronization of "%s" is in PENDING state. Current sync_action is: "%s" | 原因: md デバイスの再同期がペンディング状態であることが検出されました。 処置: LifeKeeper は再同期を強制実行して問題の修正を試行してください。関連するエラーをログで確認してください。エラーを解決した後、/proc/mdstat でペンディング状態がクリアされたこと、および datarep リソースの再同期が進行中であるか、完了したことを確認してください。 |
104157 | WARN | /etc/sysconfig/raid-check update failed. Please %s "md%d" to SKIP_DEVS. | 原因: /etc/sysconfig/raid-check を変更して、スキップする MD デバイスのリスト(SKIP_DEVS)にエントリを追加または削除することができません。 処置: raid-check または SKIP_DEVS に関連するエラーがないか、システムログを確認してください。リストされたmdを手動で追加または削除してください。 |
104158 | EMERG | WARNING: The local disk partition $self->{ part } for data replication device\n$self->{ md } has failed. MANUAL INTERVENTION IS REQUIRED. | 原因: ミラーのローカルデバイスで問題が発生しました。LKDR_FAILURE でリカバリーアクションが設定されていないため、復旧するには手動による介入が必要です。 処置: システムログと LifeKeeper ログで、ローカルディスクに関連するエラーを確認してください。 |
104163 | WARN | The "%s_data_corrupt" flag is set in "%s/subsys/scsi/resources/netraid/" on system "%s". The mirror is being forced online. | 原因: ミラーは強制的にオンラインになり、data_corrupt フラグを上書きします。指定されたシステム上のデータは、最新のデータとして扱われます。これが正しくない場合、データ破損またはデータ損失につながる可能性があります。 処置: ありません。 |
104164 | ERROR | The "%s_data_corrupt" flag for related mirror resource "%s" is set in "%s/subsys/scsi/resources/netraid/" on system "%s". To avoid data corruption, LifeKeeper will not restore this mirror or any related mirrors in the hierarchy. | 原因: data_corrupt フラグは、階層内の1つ以上のミラーに存在します。追加データの破損を防ぐため、すべての data_corrupt フラグが解決されるまで、どのミラーも In Service になりません。 処置: LifeKeeperのログを確認して、各ミラーが最後に In Service になっていた場所、つまり各ミラーの最新データが存在する場所を特定してください。すべての階層が In Service であった以前のソースでミラーを In Service にし、ミラーがすべてのターゲットと同期できるようにする必要があります。 |
104165 | ERROR | The "%s_data_corrupt" flag for related mirror resource "%s" is set in "%s/subsys/scsi/resources/netraid/" on system "%s". The mirror resource "%s" is being forced online. | 原因: ミラーは強制的にオンラインになっており、data_corrupt フラグを上書きします。指定されたシステム上のデータは、すべてのターゲットと同期される正しいデータとして扱われます。これが最新のデータでない場合、データ破損またはデータ損失につながる可能性があります。 処置: ありません。 |
104170 | ERROR | Failed to create "source" flag file on shared source %s to track mirror source. This may result in a full resync. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104171 | ERROR | Failed to create "source" flag file on %s to track mirror source. Target %s will not be added to mirror. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104172 | ERROR | The "source" flag file on %s does not contain a valid target (%s). Full resync to remaining targets is required. | 原因: 「ソース」フラグファイルには以前のソースのシステム名が含まれている必要がありますが、リストされている名前は構成されたシステムのリストにありませんでした。 処置: この問題を SIOS サポートに報告してください。 |
104173 | ERROR | Failed to create "source" flag file on %s to track mirror source. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104174 | ERROR | Failed to create “previous_source” flag file to track time waiting on source. Will not be able to timeout. | 原因: 「previous_source」フラグファイルは、ミラーの以前のソースを追跡するためのミラーソース上に作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104175 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104176 | ERROR | The "source" flag file on %s to track mirror source does not exist. Full resync is required. | 原因: 「ソース」フラグファイルはシステム上に存在する必要があり、これがないとミラーの整合性を検証できません。データの信頼性を確保するには、完全な再同期が必要です。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104177 | ERROR | Failed to determine amount of time waiting on %s. | 原因: 以前のソースを待機する時間を決定できませんでした。以前のソースが見つからない場合、ターゲットは完全に再同期されて追加されます。 処置: ありません |
104178 | ERROR | Failed to update "source" flag file on target "%s", previous source must be merged first. | 原因: ターゲットのソースフラグファイルは、同期されて停止されると更新されるため、次のIn Service時には以前のソースは必要ありません。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104180 | ERROR | Internal Error: "previous_source" has the local system name (%s). | 原因: ローカルシステム名は、previous_source フラグファイルに含めることはできません。 処置: このエラーを SIOS サポートに報告してください。 |
104181 | ERROR | Internal Error: There are no targets waiting on %s to be merged. | 原因: 以前のソースがマージされるのを待機しているターゲットがありません。 処置: このエラーを SIOS サポートに報告してください。 |
104182 | ERROR | Failed to create \"source\" flag file on %s to track mirror source. This may result in a full resync. | 原因: リストされたターゲットに「ソース」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104186 | ERROR | Failed to create "last_owner" flag file on %s to track mirror source. This may allow in-service of mirror on old data. | 原因: 「last_owner」フラグファイルがソースに作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104187 | WARN | $REM_MACH has ${REM_TAG}_last_owner file, create flag ${FLAGTAG}_data_corrupt. | 原因: リストされているシステムでは、ミラーが最後にIn Serviceになりました。 処置: リストされているシステムには last_owner ファイルがあります。これは、このシステムには最新のデータがあり、データの損失を防ぐためにミラーをIn Serviceにするのに最適なシステムである可能性が高いことを示しています。 |
104188 | WARN | $REM_MACH is not alive, create flag ${FLAGTAG}_data_corrupt. | 原因: リストされているシステムは稼働していません。 処置: リストされているシステムは稼働していないため、そのシステムがローカルシステムよりも新しいミラーソースであったかどうかを判断できません。このため、ローカルシステムがミラーをIn Serviceにすることを自動的に許可しないでください。 |
104190 | ERROR | [$SUBJECT event] mail returned $err | 原因: DataKeeper の再同期が完了したときに通知するメールが失敗しました。 このメッセージに続いて、エラーの詳細が表示されます。 |
104191 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: DataKeeper の再同期が完了したときに通知するメールが失敗しました。 このメッセージに続いて、エラーの詳細が表示されます。 |
104193 | ERROR | snmptrap returned $err for Trap 143 | 原因: DataKeeper の再同期が完了したときに通知する SNMP トラップ 143 が失敗しました。 このメッセージに続いて、エラーの詳細が表示されます。 |
104194 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | 原因: DataKeeper の再同期が完了したときに通知する SNMP トラップ 143 が失敗しました。 このメッセージに続いて、エラーの詳細が表示されます。 |
104196 | ERROR | $msg | 原因: カーネルは非同期レプリケーションをサポートしていません。 メッセージには、失敗の詳細が記載されています。 処置: メッセージの詳細に従って、このカーネルを使用している間は非同期レプリケーションを構成しないでください。 |
104197 | WARN | $msg | 原因: is_async_supported は、非同期でレプリケートするときに注意すべきいくつかの条件を指定する警告メッセージを返しました。 処置: 警告の条件がこの構成に適用されないことを確認してください。 同期レプリケーションが必要な場合があります。 |
104200 | EMERG | Continue to wait for %s to merge bitmap and do partial resyncs to all targets, no timeout set. | 原因: マルチターゲット構成では、すべてのターゲットが部分的に再同期できるように、以前のソースがビットマップをマージできるようになるまでターゲットは構成されません。/etc/defaults/LifeKeeper の LKDR_WAIT_ON_PREVIOUS_SOURCE_TIMEOUT エントリは、無期限に待機するために「-1」に設定されます。 処置: メッセージにリストされている以前のソースのステータスを確認し、クラスターへの再参加を妨げている問題を解決してください。 |
104201 | EMERG | To stop waiting for the previous source (forcing a full resync to remaining waiting targets) run: "%s/bin/mirror_action %s fullresync %s %s" on %s. | 原因: マルチターゲット構成では、ターゲットは構成されず、以前のソースがクラスターに再参加するのを待機します。 処置: メッセージにリストされているコマンドを実行して、このターゲットおよび再同期を待機している残りのターゲットに対して即時の完全再同期を強制してください。 |
104202 | EMERG | Continue to wait for %s to merge bitmap and do partial resyncs to all targets. Continue to wait %d more seconds. | 原因: マルチターゲット構成では、すべてのターゲットが部分的に再同期できるように、前のソースがビットマップをマージできるようになるまでターゲットは構成されません。 /etc/defaults/LifeKeeper の LKDR_WAIT_ON_PREVIOUS_SOURCE_TIMEOUT エントリは、待機する秒数に設定されます。以前のソースがその時間内にクラスターに参加しない場合、ターゲットは完全に再同期されて追加されます。 処置: メッセージにリストされている以前のソースのステータスを確認し、クラスターへの再参加を妨げている問題を解決してください。 |
104203 | EMERG | To stop waiting for the previous source (forcing a full resync to remaining waiting targets) run: \"%s/bin/mirror_action %s fullresync %s %s\" on %s. | 原因: マルチターゲット構成では、ターゲットは構成されず、以前のソースがクラスターに再参加するのを待機してください。 処置: メッセージにリストされているコマンドを実行して、このターゲットおよび再同期を待機している残りのターゲットに対して即時の完全再同期を強制してください。 注記: リストされたターゲットが削除されて戻らない場合でも、このコマンドを実行して待機を停止してください。 |
104207 | ERROR | Failed to create "data_corrupt" flag file on "%s". | 原因: リストされたソースに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104208 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104209 | ERROR | Failed to create "data_corrupt" flag file on "%s". | 原因: リストされたソースに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104210 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104211 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104212 | ERROR | The "source" flag file on %s to track mirror source does not exist. Full resync to remaining targets is required. | 原因: 「ソース」フラグファイルはシステム上に存在する必要があり、これがないとミラーの整合性を検証できません。データの信頼性を確保するには、完全な再同期が必要です。まだミラーされていないすべてのターゲットでは、完全な再同期が必要です。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください. |
104214 | ERROR | Failed to create "source" flag file on %s to track mirror source. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104216 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104217 | ERROR | Failed to create "source" flag file on shared source %s to track mirror source. This may result in a full resync. | 原因: 「ソース」フラグファイルが、ミラーソースを追跡するために指定されたシステムで作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104218 | ERROR | Failed to create "data_corrupt" flag file on target "%s". | 原因: リストされたターゲットに「data_corrupt」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104221 | ERROR | Failed to create "last_owner" flag file on %s to track mirror source. This may allow in-service of mirror on old data. | 原因: リストされたターゲットに「last_owner」フラグファイルが作成されませんでした。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104222 | ERROR | Failed to create "last_owner" flag file to track mirror source". This may allow in-service of mirror on old data. | 原因: 「last_owner」フラグファイルは、ミラーが最後にIn Serviceになった場所を特定するために使用されています。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104223 | ERROR | Failed to create "last_owner" flag file to track mirror source". This may allow in-service of mirror on old data. | 原因: 「last_owner」フラグファイルは、ミラーが最後にIn Serviceになった場所を特定するために使用されています。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104224 | ERROR | Failed to create "previous_source" flag file. | 原因: 「previous_source」フラグファイルが作成されませんでした。これは、以前のソースのビットマップをマージして完全な同期を回避するために必要です。 処置: LKROOT(/opt/LifeKeeper)ファイルシステムにエラーがないか、または Full になっていないか確認してください。 |
104227 | ERROR | Failed to set %s to %s. | 原因: このメッセージは、nbdドライバー(/sys/block/nbdX)のsysfsパラメーターの設定に失敗したことを示しています。 処置: このエラーを回避するには、/etc/default/LifeKeeper で次のうち1つ以上を調整する必要がある場合があります。 NBD_NR_REQUESTS NBD_SCHEDULER LKDR_ASYNC_LIMIT |
104232 | ERROR | Mirror resize failed on %s (%s). Could not set size to %d. | 原因: ミラーのサイズ変更操作に失敗しました。 |
104233 | ERROR | Mirror resize failed on %s (%s). Could not set bitmap to %s and bitmap-chunk to %d. | 原因: ミラーのサイズ変更操作に失敗しました。 |
104234 | ERROR | The mirror %s failed to resize. You must successfully complete this operation before using the mirror. Please try again. | 原因: ミラーのサイズ変更操作に失敗しました。 |
104235 | ERROR | mirror_resize of mirror %s failed due to signal "%s". | 原因: ミラーのサイズ変更操作に失敗しました。 |
104236 | EMERG | Resource "%s" is "OSF". The mirror "%s" will wait to replicate data until all resources in the hierarchy%s are in-service. This may indicate inconsistent data. Verify the data is correct before replicating data; replication will continue when all resources in the hierarchy%s are in-service. A full resync may be necessary (see "LKDR_WAIT_TO_RESYNC" in /etc/default/LifeKeeper). | |
104237 | WARN | Resource "%s" is "OSU". The mirror "%s" will wait to replicate data until all resources in the hierarchy%s are in-service. To replicate data immediately run: "%s/bin/mirror_action %s resume" on "%s" (see "LKDR_WAIT_TO_RESYNC" in /etc/default/LifeKeeper). | |
104238 | ERROR | Unable to read /sys/module/nbd/taint. Assuming that the SIOS nbd module is not loaded. | |
104239 | EMERG | $nbd_failure_msg | |
104242 | ERROR | Unable to read /proc/modules. Assuming that the SIOS nbd module is not loaded. | |
104243 | ERROR | Internal script or routine $caller was called for unsupported kernel module '$module'. Supported kernel modules for this script or routine are: $module_list. | 原因: 指定されたスクリプトまたはルーチンが、サポートされていないカーネルモジュールに対して呼び出されました。 対応: これは内部エラーです。SIOSカスタマーサポートに連絡してください。 |
104244 | ERROR | Output from 'modprobe $module' command: $pretty_modprobe_out | 原因: modprobeコマンドを使用して指定されたカーネルモジュールをロードできませんでした。 対応:失敗したmodprobeのログメッセージの出力を確認し、見つかった問題を解決してください。 |
104251 | ERROR | There is no LifeKeeper protected resource with tag $tag on system $me. | 原因: 指定されたタグは、指定されたシステム上のLifeKeeperで保護されているリソースに対応していません。 処置: リソースタグとシステム名が正しいことを確認してください。 |
104252 | ERROR | Resource $tag is not a $app/$typ resource. Please use the $ins_app/$ins_typ resource-specific canfailover script instead. | 原因: scsi/netraid 固有の canfailover スクリプトが、非 scsi/netraid リソースに対して呼び出されました。 処置: 指定されたリソースの適切なアプリケーションとタイプに対応する canfailover スクリプトを使用してください(存在する場合)。 |
107015 | ERROR | Exported file system $opt_t cannot be accessed on $me. | |
112000 | FATAL | Usage: "%s %s". Specify the correct usage for the requested command. | 原因: SAP HANA createスクリプトに無効なパラメーターが指定された。 処置: 適切なパラメーターをSAP HANA createスクリプトに指定してください。 |
112004 | ERROR | Neither the SID/instance pair nor the tag parameter were specified for the internal "%s" routine on %s. If this was a command line operation, specify the correct parameters. Otherwise, consult the troubleshooting documentation. | 原因: 内部SAPオブジェクトの作成において無効なパラメーターが指定された。 処置: SIDおよびインスタンスまたはLifeKeeper のリソースタグ名のいずれかを指定してください。 |
112013 | ERROR | The file "%s" does not exist or was not readable on %s. Verify that the specified file exists and/or is readable. | 原因: sapservices ファイルが存在しないか、読み込み不可。 処置: sapservices ファイルが存在し、読み込み可能であることを確認してください。 |
112017 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: 指定したサーバー上で指定したリソースに関連する情報を見つけることができない。 処置: 指定したサーバーに指定したリソースが存在していて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112019 | ERROR | The attempt to update the resource information field for resource %s has failed on %s. View the resource properties manually using "ins_list -t <tag>" to verify that the resource is functional. | 原因: 指定したサーバーで指定したリソースの LifeKeeper リソース情報フィールドを更新できない。 処置: 指定したサーバーにリソースが存在しているか、もしくはLifeKeeper が起動しているかを確認してください。 |
112022 | ERROR | An error occurred while trying to find the IP address corresponding to "%s" on %s. Verify the IP address or host name exists in DNS or the hosts file. | 原因: 指定したサーバーにIPアドレスもしくはホスト名が見つからない。 処置: IPアドレスもしくはDNS名がDNSもしくはローカルホストファイルに存在しているかを確認してください。 |
112024 | FATAL | There was an error verifying the NFS connections for SAP related mount points on $me. One or more NFS servers is not operational and needs to be restarted. | 原因: SAP_NFS_CHECK_DIRS パラメーター に掲載されている少なくとも一つの NFS 共有ファイルシステムを現在使用できない。 処置: NFSサーバーの起動、すべての必要とされるNFS関連のサービスの起動、すべての必要とされるファイルシステムがエクスポートされていることを確認してください。 |
112028 | ERROR | Unable to determine the user name for the SAP administrative user for resource %s on %s. | 原因: 指定したサーバー上に指定したリソース情報を確認することができない。 処置: 指定したサーバーに指定したリソースが存在していて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112029 | ERROR | The canextend script "%s" either does not exist or is not executable on %s. | 原因: SAP canextend スクリプトが存在していないか、実行できない。 処置: SAP canextend スクリプトが存在していて、実行可能か確認してください。 |
112037 | ERROR | Unable to create an internal object for the SAP instance using SID %s, instance %s, and tag %s on server %s. Verify that all necessary SAP file systems are mounted and accessible before reattempting the operation. | 原因: 指定した SAP インスタンスを表すための内部の SAP オブジェクトを作成することができない。 処置: SAP インスタンスが正常にインストール、設定されていて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112040 | ERROR | The SAP Directory "%s" ("%s") does not exist on %s. Verify that the directory exists and that the SAP software is properly installed. | 原因: 指定したSAP インストールディレクトリが指定したサーバーに存在していない。 処置: SAP ソフトウェアが正常にインストールされすべての必要となるファイルシステムがマウントされていることを確認してください。 |
112041 | ERROR | The required utility "%s" was not found or was not executable on %s. Verify the SAP installation and location of the required utility. | 原因: saphostexec または saposcol が見つからないか実行できない。 処置: SAP Host Agent package が正しくインストールされ、すべての必要となるファイルシステムがマウントされていることを確認してください。 |
112042 | ERROR | One or more SAP or LifeKeeper validation checks has failed on %s. Please update the SAP software on this host to include the SAPHOST and SAPCONTROL packages. | 原因: saphostexec または saposcol が見つからないか実行できない。 処置: SAP Host Agent package が正しくインストールされ、すべての必要となるファイルシステムがマウントされていることを確認してください。 |
112048 | ERROR | The SAP instance %s is already under LifeKeeper protection on server %s. Choose another SAP instance to protect or specify the correct instance. | 原因: 指定した SAP インスタンスはすでに指定したサーバーでLifeKeeper により保護されている。 処置: まだLifeKeeper により保護されていない SAP インスタンスを選択してください。 |
112049 | ERROR | Unable to locate the SAP Mount directory on %s. Verify that all SAP file systems are mounted and accessible before reattempting the operation. | 原因: SAP のマウント (sapmnt) ディレクトリの場所を特定できない。 処置: すべての必要となるファイルシステムがマウントされ、すべての必要となる SAP インスタンスプロファイルがアクセス可能になっていることを確認してください。 |
112050 | ERROR | Detected multiple virtual IP addresses/host names for instance %s on %s. Verify that the instance is configured correctly. | 原因: 指定したサーバー上に指定した SAP インスタンスに対する複数の仮想 IP もしくはホスト名が検出された。 処置: インスタンスに関連する仮想 IP もしくはホスト名が正しく構成されているかを確認してください。 |
112051 | ERROR | The "%s" or "%s" value in the default profile "%s" is still set to the physical host name on %s. The value(s) must be set to a virtual host name. | 原因: 指定したサーバーで指定したホスト名のパラメーターが物理サーバーのホスト名に指定されている。 処置: ホスト名のパラメーターは仮想ホスト名に設定してください。 |
112053 | ERROR | Detected multiple instances under SID %s with the same instance number (%s) on %s. Each instance within a particular SID must have a unique instance number. | 原因: 同じインスタンス番号のSAP インスタンスが、同じ SAP SID 下に検出された。 処置: SAP環境を再構築することで、指定した SAP SID 下の各インスタンスが一意のインスタンス番号をもつことができます。 |
112056 | ERROR | The NFS export for the path "%s" required by the instance %s for the "%s" directory does not have an NFS hierarchy protecting it on %s. You must create an NFS hierarchy to protect this NFS export before creating the SAP resource hierarchy. | 原因: 指定したファイルシステムのNFS エクスポートが LifeKeeper により保護されていません。 処置: エクスポートしたファイルシステムの LifeKeeper NFS 階層を作成し、SAP リソースを作成してください。 |
112057 | ERROR | Unable to create a file system resource hierarchy for the file system “%s” on “%s”. | 原因: 指定したサーバーで指定したファイルシステムを保護するための LifeKeeper ファイルシステムリソース階層を作成することができない。 処置: 詳細について LifeKeeper とシステムログを確認してください。 |
112058 | ERROR | Unable to create a dependency between parent tag “%s” and child tag “%s” on “%s”. | 原因: 指定したサーバーで指定したリソース間での依存関係を作成できない。 処置: 詳細について LifeKeeper のログを確認してください。 |
112060 | ERROR | All attempts at local recovery for the SAP resource “%s” have failed on “%s”. A failover to the backup server will be attempted. | 原因: 指定したサーバーで指定した SAP リソースを復旧できない。 処置: SAP リソース階層のフェイルオーバーは自動的に行われます。ユーザーの介入は必要ありません。 |
112061 | ERROR | The values specified for the target and the template servers are the same. Please specify the correct values for the target and template servers. | 原因: SAP リソース階層の拡張中に提供されたテンプレート/ターゲットサーバーが同一。 処置: テンプレート・ターゲットサーバーの正しい名前を提供し、拡張処理を再度実行してください。 |
112062 | ERROR | Unable to find the home directory "%s" for the SAP administrative user "%s" on %s. Verify that the SAP software is installed correctly. | 原因: 指定したサーバーで指定した SAP ユーザーのホームディレクトリが見つからない。 処置: SAP ソフトウェアが正常にインストールされ、指定した SID に対する適切な SAP 管理ユーザーがサーバーに存在していることを確認してください。 |
112063 | ERROR | The SAP administrative user "%s" does not exist on %s. Verify that the SAP software is installed correctly or create the required SAP user on %s. | 原因: 指定した SAP 管理ユーザーが指定したサーバー上に存在していない。 処置: SAP ソフトウェアが正常にインストールされているか確認し、必要に応じて SAP 管理ユーザーを作成してください。 |
112064 | ERROR | The group ID for user "%s" is not the same on template server "%s" and target server "%s". Please correct the group ID for the user so that it is the same on the template and target servers. | 原因: 指定したSAP 管理ユーザーのグループ IDがテンプレート/ターゲットサーバーで一致していない。 処置: 指定した SAP 管理ユーザーのグループ ID を修正することで、テンプレート/ターゲットサーバーで同一となります。 |
112065 | ERROR | The user ID for user "%s" is not the same on template server "%s" and target server "%s". Please correct the user ID so that it is the same on the template and target servers. | 原因: 指定した SAP 管理ユーザーの IDがテンプレート/ターゲットサーバーで一致していない。 処置: 指定した SAP 管理ユーザーの ID を修正することで、テンプレート/ターゲットサーバーで同一となります。 |
112066 | ERROR | Required SAP utilities could not be found in "%s" on %s. Verify that the SAP software is installed correctly. | 原因: 必要な SAP 実行ファイルもしくは SAP インスタンスプロファイルを配置することができない。 処置: SAP ソフトウェアが正常にインストールされ構成されていて、すべての必要なファイルシステムがマウントされているか確認してください。 |
112069 | ERROR | The command “%s” is not found in the “%s” perl module (“%s”) on “%s”. Please check the command specified and retry the operation. | 原因: 指定したコマンドが指定したサーバーの sap perl modedule に見つからない。 処置: ユーザーから開始したコマンドアクションによりエラーとなった場合は、正しいルーチン名が remoteControl スクリプトに渡されているかを確認してください。通常のLifeKeeper 運用において発生したエラーの場合は、製品サポートへお問い合わせください。 |
112071 | ERROR | The file “%s” exists, but was not read and write enabled on “%s”. Enable read and write permissions on the specified file | 原因: 指定したファイルが指定したサーバーで読み込み/書き込み権限をもっていない。 処置: 指定したサーバーで読み込み/書き込み権限を有効にしてください。 |
112073 | ERROR | Unable to create an internal object for the SAP instance using either SID "%s" and instance "%s" or tag "%s" on server "%s". Either the values specified for the object initialization (SID/instance pair or tag, system) were not valid, or an error occurred while attempting to gather information about the SAP instance. If all specified parameters are correct, verify that all necessary SAP file systems are mounted and accessible before reattempting the operation. | 原因: 指定した SAP インスタンスを示すための内部 SAP オブジェクトを作成することができない。 処置: SAP インスタンスが正常にインストール、設定されていて、すべての必要なファイルシステムがマウントされているかを確認してください。 |
112074 | WARN | Warning: The profile file %s for SID %s and Instance %s has Autostart is enabled on %s. Disable Autostart for the specified instance by setting Autostart=0 in the profile file | 原因: Autostart パラメーターが指定したサーバーの指定したインスタンスプロファイルで有効になっている。 処置: 指定した SAP インスタンスがインスタンスプロファイルの中で ‘Autostart = 0’に設定されており、Autostartが有効になっています。Autostartを無効にしてください。 |
112076 | FATAL | Unable to start the sapstartsrv service for SAP SID $sid and SAP instance $Instance on $me. Verify that the sapservices file is correct and the process can be started manually. | 原因: 指定した SAP インスタンスに対して SAP Start Service (sapstartsrv) のプロセスを開始できない。 処置: sapservices ファイルがsapstartsrv プロセスを開始するための適切なコマンドを含んでいて、そのプロセスを手動で開始できるかを確認してください。 |
112077 | ERROR | Unable to stop the sapstartsrv service for SAP SID %s and SAP instance %s on %s. Verify that the sapservices file is correct and the process can be stopped manually. | 原因: 指定した SAP インスタンスに対して SAP Start Service (sapstartsrv) プロセスを停止することができない。 処置: sapservices ファイルが sapstartsrv プロセスを開始するための適切なコマンドを含んでいて、そのプロセスを手動で開始できるかを確認してください。 |
112078 | ERROR | ERSv1 is only supported in two-node clusters. Resource %s is unable to be extended to system %s. Upgrade to ERSv2 in order to extend the hierarchy to three or more nodes. | 原因: ERSv1インスタンスを表す SAP リソースを 3つ以上のノードに拡張することができない。 処置: ERS インスタンスを表す SAP リソースを3つ以上のノードに拡張する場合は、ERSv2 へアップグレードしてください。 アップグレード手順は、オンラインプロダクトドキュメント内に記載されています。 |
112082 | WARN | Instance %s is running a different version of the enqueue server than its corresponding enqueue replication server. This configuration is not supported by SAP and will lead to unexpected resource behavior. See SAP Note 2711036 – "Usage of the Standalone Enqueue Server 2 in an HA Environment" for more details. Please review the online product documentation for instructions on how to modify the instance profiles for the enqueue server and enqueue replication server so that they use the same version. | 原因: エンキューサーバーとエンキューレプリケーションサーバーのバージョンが一致していない。 処置: オンラインプロダクトドキュメントに記載のインスタンスプロファイルの修正方法を確認の上、エンキューサーバーとエンキューレプリケーションサーバーのバージョンを一致させてください。 |
112086 | ERROR | The ERS resource corresponding to resource %s is in-service and maintaining backup locks on a remote system. Bringing resource %s in-service on %s would result in a loss of the backup lock table. Please bring resource %s in-service on the system where the corresponding ERS resource is currently in-service in order to maintain consistency of the lock table. In order to force resource %s in-service on %s, either (i) run the command \’/opt/LifeKeeper/bin/flg_create -f sap_cs_force_restore_%s\’ as root on %s and reattempt the in-service operation or (ii) take the corresponding ERS resource out of service on the remote system. Both of these actions will result in a loss of the backup lock table. | 原因: ASCS/SCS リソースに対応する ERS インスタンスがクラスター内の異なるサーバーで起動し、バックアップのエンキューテーブルを保存していたので、ASCS/SCS リソースに対して in-service 処理が試された。 処置: バックアップのエンキューテーブルを取得するためにERSインスタンスが起動しているサーバーで、ASCS/SCS リソースを in-sevice にしてください。ASCS/SCS リソースを強制的に in-service にする場合は、 ‘/opt/LifeKeeper/bin/flg_create -f sap_cs_force_restore_<ASCS/SCS Tag>’ コマンドを実行し in-service 処理を試みるか、またはリモートサーバーで対応する ERS リソースを out of service にしてください。これら両方の操作を実行すると、バックアップのエンキューテーブルが失われます。 |
112089 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance types TYPE_CS, TYPE_ERS, or TYPE_NEW_ERS (1, 2, or 5). | 原因: GetEnqVersion ルーチンがサポートされていない SAP インスタンスのタイプに対して呼び出された。インスタンスタイプ 1 (TYPE_CS), 2 (TYPE_ERS), 5 (TYPE_NEW_ERS) のみがサポート対象です。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112092 | ERROR | The profile "%s" either does not exist or cannot be read on %s. Unable to determine whether enqueue replication is enabled for resource %s. Please verify that the file exists and can be read. | 原因: 指定したサーバー上に指定したインスタンスプロファイルが存在していない、もしくは読み取りができない。 処置: ファイルが存在していて、読み取り可能かどうかを確認してください。 |
112095 | ERROR | Error creating resource “%s” on server “%s” | 原因: 指定したサーバーに指定したリソースを作成することができない。 処置: 指定したサーバーにSAP ソフトウェアが正常にインストールされ、すべての必要なファイルシステムがマウントされアクセス可能になっていることを確認してください。 |
112096 | ERROR | Resource %s is not currently in-service on server %s. Manually bring the resource in-service and retry the operation. | 原因: 依存関係の作成中に、指定したリソースがサーバーで In Service ではありませんでした。 処置: 指定したサーバーでリソースを In Service にし、再度操作を実施してください。 |
112101 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができない。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112102 | ERROR | Cannot extend resource “%s” to server “%s” | 原因: 指定したサーバーへ拡張したリソースを作成することができない。 処置: SAP ソフトウェアがターゲットサーバーに正常にインストールされ、すべての必要なファイルシステムがターゲットシステムからアクセス可能になっていることを確認してください。 |
112103 | ERROR | Error creating resource “%s” on server “%s” | 原因: 指定したサーバーに指定したリソースを作成することができない。 処置: 指定したサーバーにSAP ソフトウェアが正常にインストールされ、すべての必要なファイルシステムがマウントされアクセス可能になっていることを確認してください。 |
112104 | ERROR | The extend script "%s" either does not exist or is not executable on %s. | 原因: 指定したサーバーに指定した extend スクリプトが存在しないか実行することができない。 処置: すべての必要なリカバリーキットがインストールされ、extend スクリプトが実行可能か確認してください。 |
112106 | ERROR | Unable to create an internal SAP object for resource "%s" on %s. If the tag is correct, verify that all necessary SAP file systems are mounted and accessible. | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112112 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112115 | FATAL | Error getting resource information for resource \”$tag\” on server \”$sap::me\”. | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112119 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112123 | ERROR | Error getting resource information for resource “%s” on server “%s” | 原因: 指定したサーバー上の指定したリソース情報を確認することができませんでした。 処置: 指定したサーバーに指定したリソースが存在していてすべての必要なファイルシステムがマウントされているかを確認してください。 |
112124 | ERROR | Resource with either matching tag “%s” or id “%s” already exists on server “%s” for App “%s” and Type “%s” | 原因: 指定したリソースタグ名もしくは ID および同一のアプリケーション、タイプをもつリソースがすでに指定したサーバーに存在しています。 処置: SAP インスタンスが指定したサーバーでまだLifeKeeper に保護されていないことを確認してください。まだ保護されていない場合は、別のリソースタグ名を選択してください。 |
112125 | ERROR | Unable to create an SAP object for resource %s on system %s. | 原因: 指定のサーバーで指定されたリソースを示すための SAP オブジェクトを作成することができない。 処置: 指定したサーバーにSAP ソフトウェアが正常にインストールされ、すべての必要なファイルシステムがマウントされアクセス可能になっていることを確認してください。 |
112126 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP canextend スクリプトの使用に誤りがあります。 処置: canextend スクリプトに対する正しいパラメーターを指定してください。: canextend <template server> <template tag> |
112127 | FATAL | Usage: \”$cmd $usage\” Specify the correct usage for the requested command. | 原因: SAP delete スクリプトの使用に誤りがある。 処置: SAP delete スクリプトに対する正しいパラメーターを指定してください。: delete [-U] -t <tag> -i <id> |
112128 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP depstoextend スクリプトの使用に誤りがある。 処置: depstoextend スクリプトに対する正しいパラメーターを指定してください。: depstoextend <template server> <template tag> |
112129 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP extend スクリプトの使用に誤りがある。 処置: extend スクリプトに対する正しいパラメーターを指定してください。: extend <template server> <template tag> <switchback> <target tag> |
112130 | FATAL | Usage: \”$cmd $usage\” Specify the correct usage for the requested command. | 原因: SAP quickCheck スクリプトの使用に誤りがある。 処置: quickCheck スクリプトに対する正しいパラメーターを指定してください。: quickCheck -t <tag> -i <id> |
112131 | FATAL | Usage: “%s %s” Specify the correct usage for the requested command. | 原因: SAP recover スクリプトの使用に誤りがある。 処置: recover スクリプトに対する正しいパラメーターを指定してください。: recover -d <tag> |
112132 | FATAL | Usage: \”$cmd $usage\”. Specify the correct usage for the requested command. | 原因: SAP remoteControl スクリプトの使用に誤りがある。 処置: remoteControl スクリプトに対する正しいパラメーターを指定してください。: remoteControl <tag> <remote instance> <remote cmd> <remote cmd option> <primary system> <primary tag> |
112133 | FATAL | Usage: “%s %s”. Specify the correct usage for the requested command. | 原因: SAP remove スクリプトの使用に誤りがある。 処置: remove スクリプトに対する正しいパラメーターを指定してください。: remove -t <tag> -i <id> |
112134 | FATAL | Usage: \”$cmd $usage\”. Specify the correct usage for the requested command. | 原因: SAP restore スクリプトの使用に誤りがある。 処置: restore スクリプトに対する正しいパラメーターを指定してください。: restore -t <tag> -i <id> |
112137 | ERROR | The required parameter \"parent\" was either not provided or was invalid in the $func routine on $me. | 原因: CleanUpルーチンの使用に誤りがある。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112138 | ERROR | At least one required process for instance %s was not started successfully during "%s" on server %s. Please check the LifeKeeper and system logs for additional information. | 原因: 指定したサーバーで、指定した SAP インスタンスに対する少なくとも1つのプロセスが正常に開始されませんでした。 処置: LifeKeeper/システムログ, SAP トレースファイルなどから原因を調査し、操作を再度行ってください。 |
112140 | FATAL | The tag parameter was not specified for the internal \"$func\" routine on $me. If this was a command line operation, specify the correct parameters. Otherwise, consult the troubleshooting documentation. | 原因: 指定したサーバーでタグパラメーターが GetLK ルーチンに指定されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112141 | ERROR | Either the SID ("%s") or instance ("%s") parameter was not specified for the "%s" routine on %s. | 原因: SID もしくは SID のどちらかが指定したサーバーの StatusSapServer ルーチン に指定されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112142 | ERROR | Either the SID ("%s"), instance ("%s"), or instance number ("%s") parameter was not specified for the "%s" routine on %s. | 原因: SID、インスタンス、インスタンス番号のいずれかが指定のサーバーの StartSapServer ルーチンに提供されていない。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112143 | ERROR | The SID, instance, or instance number parameter was not specified for the "%s" routine on %s. | 原因: SID、インスタンス、インスタンス番号のいずれかが指定のサーバーの StopSapServer ルーチンで指定されていない。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112173 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: 指定したファイルが指定したサーバーに存在しないか、読み込み不可になっている。 処置: ファイルが存在しているかを確認および/もしくは権限を修正して読み込み可能な状態にしてください。 |
112174 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: 指定したファイルが指定したサーバーに存在しないか、読み込み不可になっています。 処置: ファイルが存在しているかを確認および/もしくは権限を修正して読み込み可能な状態にしてください。 |
112175 | ERROR | The file “%s” does not exist or was not readable on “%s”. Verify that the specified file exists and/or is readable. | 原因: 指定したファイルが指定したサーバーに存在しないか、読み込み不可になっている。 処置: ファイルが存在しているかを確認および/もしくは権限を修正して読み込み可能な状態にしてください。 |
112194 | ERROR | There was an error verifying the NFS connections for SAP related mount points on “%s”. One or more NFS servers is not operational and needs to be restarted. | 原因: マウントポイントが /etc/default/LifeKeeper の SAP_NFS_CHECK_DIRS エントリに記述されている少なくとも一つの 重要なNFS 共有システムが現在無効となっている。 処置: すべての必要な NFS 共有ファイルシステムがアクセス可能であることを確認し、現在操作不可となっている NFS サーバーを再起動してください。 |
112195 | FATAL | There was an error verifying the NFS connections for SAP related mount points on $me. One or more NFS servers is not operational and needs to be restarted. | 原因: マウントポイントが /etc/default/LifeKeeper の SAP_NFS_CHECK_DIRS エントリに記述されている少なくとも一つの 重要なNFS 共有システムが現在無効となっている。 処置: すべての必要な NFS 共有ファイルシステムがアクセス可能であることを確認し、現在操作不可となっている NFS サーバーを再起動してください。 |
112196 | WARN | There was an error verifying the NFS connections for SAP related mount points on “%s”. One or more NFS servers is not operational and needs to be restarted. | 原因: マウントポイントが /etc/default/LifeKeeper の SAP_NFS_CHECK_DIRS エントリに記述されている少なくとも一つの 重要なNFS 共有システムが現在無効となっている。 処置: すべての必要な NFS 共有ファイルシステムがアクセス可能であることを確認し、現在操作不可となっている NFS サーバーを再起動してください。 |
112201 | ERROR | The internal object value "%s" was empty. Unable to complete "%s" on %s. | 原因: リソースタグの引数が GetLKEquivルーチンに提供されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112203 | ERROR | The internal object value "%s" was empty. Unable to complete "%s" on %s. Additional information available in the LifeKeeper and system logs. | 原因: SAP インスタンス番号が IsInstanceRunning ルーチンに提供されていません。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112204 | ERROR | The internal object value "%s" was empty. Unable to complete "%s" on %s. | 原因: saphostexec もしくは saposcol コマンドのどちらを使用するか判断できない。 処置: SAP kernel 7.3より前のSAP NetWeave に対して SAP_SRVHOST_CMD, SAP_HOSTCTL_CMD, SAP_OSCOL_CMD を使用している場合は、チューニングが正しく設定されていることを確認してください。 |
112205 | ERROR | The internal object value "%s" was empty. Unable to complete "%s" on %s. | 原因: SAP インスタンスが 指定したサーバーのSAPRemExec ルーチンに提供されなかった。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112206 | ERROR | The required action parameter was not provided. Unable to complete "%s" on %s. | 原因: 指定したサーバーで SAPRemExec ルーチンに対するアクションが提供されませんでした。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112208 | ERROR | Error getting the value of "%s" or "%s" from the default profile "%s" on %s. Verify that the specified value exists. | 原因: 指定したサーバーで提供されたプロファイルから仮想IPもしくはホスト名を取得できない。 処置: プロファイルに適切なエントリーが存在していることを確認してください。 |
112209 | FATAL | Unable to gather required information from the SAP default profile for SID $sid ($DPFL) on $me. Verify that the default profile exists and is accessible. | 原因: 指定したサーバーで提供されたプロファイルから SAP インスタンスに関する情報を取得できない。 処置: SAP ソフトウェアが正常にインストールされ提供されたプロファイルが存在および読み込み可能となっていることを確認してください。 |
112214 | ERROR | Unable to determine the status of the path "%s" ("%s") on %s. The path on %s may require the execution of the command: "mount <ip>:<export> %s". Verify that the SAP software is correctly installed and that all SAP file systems are mounted and accessible. | 原因: 指定したパスのファイルシステムのステータスを判断できません。 処置: SAP ソフトウェアが正常にインストールされすべての必要となるファイルシステムがマウントされていることを確認してください。 |
112219 | ERROR | [HACONNECTOR:%s] Unable to write to file "%s" on %s. If the file already exists, manually enable write permissions on it. | 原因: 指定したファイルが指定したサーバーで読み込み/書き込み権限をもっていない。 処置: 指定したサーバーの読み込み/書き込み権限を有効にしてください。 |
112220 | ERROR | Unable to start the sapstartsrv service for SID %s and SAP instance %s on %s. Verify that the sapservices file is correct and the process can be started manually. | 原因: 指定した SAP インスタンスに対する SAP Start Service (sapstartsrv) プロセスを開始できない。 処置: sapservices ファイルがsapstartsrv プロセスを開始するための適切なコマンドを含んでいて、そのプロセスを手動で開始できるかを確認してください。 |
112221 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance types TYPE_CS, TYPE_ERS, or TYPE_NEW_ERS (1, 2, or 5). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112222 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance types TYPE_CS, TYPE_ERS, or TYPE_NEW_ERS (1, 2, or 5). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112223 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance type TYPE_CS (1). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112224 | ERROR | The internal \"%s\" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance type TYPE_CS (1). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112225 | ERROR | The internal \"%s\" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance type TYPE_NEW_ERS (5). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112226 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance types TYPE_CS, TYPE_ERS, and TYPE_NEW_ERS (1, 2, and 5). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112227 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This routine only supports SAP instance type TYPE_CS (1). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112228 | ERROR | The internal "%s" routine was called for a resource with unsupported instance type %s. This method supports only SAP instance type TYPE_NEW_ERS (5). | 原因: サポートされていないインスタンスタイプの内部SAPオブジェクトに対して、指定されたルーチンが呼び出された。 処置: こちらは内部エラーです。SIOS カスタマーセンターへお問い合わせください。 |
112229 | ERROR | The profile \"%s\" either does not exist or cannot be read on %s. Unable to determine whether enqueue replication is enabled for resource %s. Please verify that the file exists and can be read. | 原因: 指定したサーバー上に指定したインスタンスプロファイルが存在していない、もしくは読み取りができない。 処置: ファイルが存在していて、読み取り可能かどうかを確認してください。 |
112325 | ERROR | The $SAP_CONTROL utility cannot be located. Verify that all necessary file systems are mounted and that the $SAP_CONTROL utility can be located in the $sapadmin user's PATH. | 原因: SAP インスタンスの管理に必要な sapcontrol ユーティリティが配置できない。 処置: 全ての必要なファイルシステムがマウントされ、sapcontrol ユーティリティがSAP 管理ユーザーの Path に配置されていることを確認してください。 |
112326 | ERROR | The \"which $SAP_CONTROL\" command for user $sapadmin returned $sapcmd as the location of the $SAP_CONTROL utility, but the utility could not be found or was not executable in this location. Verify that all necessary file systems are mounted and that the $SAP_CONTROL utility can be located in the $sapadmin user's PATH. | 原因: SAP インスタンスの管理に必要な sapcontrol ユーティリティが配置できない。 処置: 全ての必要なファイルシステムがマウントされ、sapcontrol ユーティリティがSAP 管理ユーザーのパスに配置されていることを確認してください。 |
112412 | ERROR | Invalid mount entry detected (‘$entry’). Verify that all mount entries in the following files on server $me have the correct format: $filesToCheckList. | 原因: 指定されたマウントエントリーの形式が無効です。 処置: エラーメッセージに表示されたファイルを調べて、すべてのマウントエントリーが正しい形式であることを確認してください (fstab スタイルのエントリーを使用)。 |
112416 | ERROR | No parent directory provided. Unable to obtain subdirectories. | 原因: SID の予想される SAP ディレクトリレイアウトが存在しません。 処置: SAP ディレクトリ構造が正しく設定されていること、およびすべてのリンクが正しいことを確認してください。 |
112417 | ERROR | Unable to open directory ‘$ParentDir’: $! | 原因: LifeKeeper は、指定されたディレクトリを開くことができません。 エラーはメッセージに示されています。 処置: 一覧表示されたディレクトリをチェックして、権限と所有者が正しいことを確認してください。 |
112433 | ERROR | Unsupported SAPENQ_VERSION ($enqversion) for resource $tag on $me. Unable to obtain enqueue replication status. | 原因: 指定したサーバーで指定したリソースの SAPENQ_VERSION パラメーターにサポートされていない値が検知されました。 処置: 指定したリソースの info ファイルで、SAPENQ_VERSION に有効な値 (現在使用しているエンキューサーバーのバージョンを表す1 または 2) が設定されていることを確認してください。 |
112437 | ERROR | Profile \"$srvpf\" not found on $me. Unable to obtain enqueue replication status for instance $inst. | 原因: 指定したサーバー上に指定したインスタンスプロファイルが存在していない、もしくは読み取りができない。 処置: ファイルが存在していて、読み取り可能かどうかを確認してください。 |
112438 | ERROR | Unsupported SAPENQ_VERSION ($enqversion) for resource $tag on $me. Unable to obtain enqueue replication status for instance $inst. | 原因: 指定したサーバーで指定したリソースのSAPENQ_VERSION パラメーターにサポートされていない値が検知された。 処置: 指定したリソースの info ファイルで、SAPENQ_VERSION に有効な値 (現在使用しているエンキューサーバーのバージョンを表す1 または 2) が設定されていることを確認してください。 |
112470 | ERROR | The instance profile %s could not be found on %s. Verify that the SAP software is installed correctly and that all necessary file systems are mounted and accessible. | 原因: 指定したサーバー上に指定したインスタンスプロファイルが存在していない、もしくは読み取りができない。 処置: ファイルが存在していて、読み取り可能かどうかを確認してください。 |
112490 | ERROR | [HACONNECTOR] Unable to determine the corresponding tag for resource with ID \"$res\" on $me. | 原因: 指定したサーバー上に指定したリソースID をもつ LifeKeeper SAP リソースを見つけることができない。 処置: fra コマンドの —res 引数として提供されるソース ID が有効な LifeKeeper SAP リソースに対応しているか確認してください。 |
112507 | ERROR | [HACONNECTOR] At least one required process for the instance was not killed successfully during the fra migrate action on $me. Aborting resource migration. | 原因: fra マイグレーション実行中に SAP インスタンスが指定したサーバーで正常に停止しなかった。 処置: SAP インスタンスに対して起動中のプロセスを手動で停止し、マイグレーションを再度実行してください。 |
112539 | ERROR | [HACONNECTOR] Unable to find rpm information for one or more packages on $me. | 原因: HA Connector gvi (“Get Version Information”)ルーチンは、LifeKeeper および/または the SAP Recovery Kit のバージョン番号を判別することができなかった。 処置: rpm -q コマンドでLifeKeeper Core および SAP Recovery Kit の rpm 情報を取得できるかを確認してください。 |
112976 | ERROR | There is no LifeKeeper protected resource with tag $tag on system $me. | 原因: SAP canfailover スクリプトに渡されたリソースタグに対応する LifeKeeper リソースがない。 処置: リソースタグ名が正しいことを確認し再度コマンドを実行してください。 |
112573 | ERROR | Failed to create or write to \"$file\" on server $me. Verify that the filesystem is not full and that the file is write-enabled. | 原因: 指定されたサーバー上の指定されたファイルの作成または書き込みに失敗しました。 処置: ファイルシステムがいっぱいでないこと、およびファイルが存在する場合は書き込み可能であることを確認してください。 |
112575 | ERROR | Failed to delete file \"$file\" on server $me. Please delete the file manually. | 原因: 指定されたサーバー上の指定されたファイルを削除できませんでした。 処置: ファイルを手動で削除してください。 |
112577 | ERROR | Failed to remove empty directory \"$dir\" on server $me. Please remove the directory manually. | 原因: 指定されたサーバー上の指定されたディレクトリーを削除できませんでした。 処置: ディレクトリーを手動で削除してください。 |
112581 | ERROR | Failed to execute routine $routine with arguments \"$arg_list\" on server $sys. | 原因: 指定されたサーバーで指定された引数を使用して、指定された SAP perl モジュールルーチンを実行できませんでした。 処置: 指定されたサーバーで LifeKeeper が実行され、完全に初期化されていることを確認してください。 追加情報については、LifeKeeper ログを調べてください。 |
112582 | WARN | Detected unsupported NFS version \"$foundNFSVers\" for mount point $mountLoc from shared file system $mountDev. The default NFS version specified by the pingnfs utility will be used instead. If necessary, this value can be overridden by setting the NFS_VERSION parameter in /etc/default/LifeKeeper. | 原因: サポートされていない NFS バージョンが検出されました。 処置: サポートされているプロトコルに更新するか、サポートされていないプロトコルを使用する必要がある場合は、メッセージ内のデフォルトファイルエントリでオーバーライドしてください。 |
112583 | WARN | Detected unsupported NFS transport protocol \"$foundProto\" for mount point $mountLoc from shared file system $mountDev. The default NFS protocol specified by the pingnfs utility will be used instead. If necessary, this value can be overridden by setting the NFS_RPC_PROTOCOL parameter in /etc/default/LifeKeeper. | 原因: サポートされていない NFS トランスポートプロトコルが検出されました。 処置: サポートされているプロトコルに更新するか、サポートされていないプロトコルを使用する必要がある場合は、メッセージ内のデフォルトファイルエントリでオーバーライドしてください。 |
112976 | ERROR | There is no LifeKeeper protected resource with tag $tag on system $me. | 原因: SAP canfailover スクリプトに指定されたリソースタグは、既存の LifeKeeper リソースに対応していません。 処置: リソースタグ名が正しいことを確認し、コマンドを再実行してください。 |
112977 | ERROR | Resource $tag is not a $app/$typ resource. Please use the $ins_app/$ins_typ resource-specific canfailover script instead. | 原因: SAP canfailover スクリプトに渡された LifeKeeper リソースが、SAP(appsuite/sap)リソースではない。 処置: 指定したリソースに対して適切なタイプ固有の canfailover スクリプトを使用してください。 |
122005 | ERROR | Unable to "%s" on "%s" | 原因: 「getlocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122007 | ERROR | Unable to "%s" on "%s" | 原因: 「rlslocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122009 | ERROR | The path %s is not a valid file. | 原因: listener.ora ファイルがありません。 処置: ファイルが存在していることを確認し、操作を再試行してください。 |
122010 | ERROR | The listener user does not exist on the server %s. | 原因: 「Stat」コマンドでユーザ ID を取得できませんでした。 処置: 操作を再試行してください。 |
122011 | ERROR | The listener user does not exist on the server %s. | 原因: UID が passwd ファイルにありません。 処置: UID が passwd ファイルに存在していることを確認し、操作を再試行してください。 |
122012 | ERROR | The listener user does not exist on the server %s. | 原因:ユーザ名が passwd ファイルにありません。 処置: ユーザ名が passwd ファイルに存在していることを確認し、操作を再試行してください。 |
122023 | ERROR | The %s command failed (%d) | 原因: このメッセージに「lsnrctl」コマンドの戻りコードが含まれています。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122024 | ERROR | $line | 原因: メッセージに「lsnrctl」コマンドの結果が含まれています。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122039 | ERROR | Usage error | 原因: リストア操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122040 | ERROR | Script $cmd has hung on the restore of \"$opt_t\". Forcibly terminating. | 原因: リスナーの restore スクリプトがタイムアウト値に達しました。 処置: listener.ora が有効であること、および /etc/default/LifeKeeper の LSNR_START_TIME(デフォルトでは 35 秒)がリスナーの起動に必要な時間以上の値に設定されていることを確認してください。 |
122041 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: LifeKeeper は、{server} でリソース {resource} をリストアできませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122045 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソース情報の取得に失敗しました。 処置: LifeKeeper の設定を確認してください。 |
122046 | ERROR | Usage error | 原因: リストア操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122049 | ERROR | The script $cmd has hung on remove of \"$opt_t\". Forcibly terminating. | 原因: リスナーの remove スクリプトがタイムアウト値に達しました。 処置: listener.ora が有効であること、および /etc/default/LifeKeeper の LSNR_STOP_TIME (デフォルトでは 35 秒) がリスナーの停止に必要な時間以上の値に設定されていることを確認してください。 |
122051 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122055 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: LifeKeeper は、{server} でリソース {resource} に対して quickCheck を実行できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122057 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122064 | WARN | The %s level is set to %s a %s will not occur. | 原因: リスナーの最低限の保護レベルは起動と監視です。 処置: リスナーを手動で起動してください。 |
122066 | ERROR | Script has hung checking \"$tag\". Forcibly terminating. | 原因: リスナーの quickCheck スクリプトがタイムアウト値に達しました。 処置: listener.ora が有効であること、および /etc/default/LifeKeeper の LSNR_STATUS_TIME (デフォルトでは 15 秒) がリスナーの確認に必要な時間以上の値に設定されていることを確認してください。 |
122067 | ERROR | Usage error | 原因: quickCheck 操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122069 | ERROR | Usage error | 原因: 削除操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122072 | ERROR | %s: resource "%s" not found on local server | 原因: 復旧操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122074 | WARN | The local recovery attempt has failed but %s level is set to %s preventing a failover to another node in the cluster. With %s recovery set all local recovery failures will exit successfully to prevent resource failovers. | 原因: オプションのリスナーリカバリーレベルがローカルリカバリーにのみ設定されています。 処置: リソースツリーを手動でスイッチオーバーしてください。 |
122078 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因:LifeKeeper は、{server} でリソース {resource} を復旧できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122082 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122083 | ERROR | $cmd has hung checking \"$tag\". Forcibly terminating | 原因: recover スクリプトがシグナルによって停止されました。 処置: listener.ora が有効であることを確認してください。 |
122084 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 処置: パラメーターを確認し、操作を再試行してください。 |
122085 | ERROR | Usage: %s %s | 原因: canextend 操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122086 | ERROR | The values specified for the target and the template servers are the same. Please specify the correct values for the target and template servers. | 原因: ターゲットサーバーに指定した値とテンプレートサーバーに指定した値が同じです。 処置: メッセージテキストに記載されている手順を実行してください。 |
122087 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122088 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソース情報からのリスナーユーザ名の取得に失敗しました。 処置: リソース情報フィールドが有効であることを確認し、操作を再試行してください。 |
122089 | ERROR | The listener user %s does not exist on the server %s. | 原因: ユーザ名が passwd ファイルにありません。 処置: ユーザ名が passwd ファイルに存在していることを確認し、操作を再試行してください。 |
122090 | ERROR | The id for user %s is not the same on template server %s and target server %s. | 原因: ユーザ ID はどちらのサーバーでも同じものにする必要があります。 処置: ユーザ ID を同じものにしてください。 |
122091 | ERROR | The group id for user %s is not the same on template server %s and target server %s. | 原因: グループ ID はどちらのサーバーでも同じものにする必要があります。 処置: グループ ID を同じものにしてください。 |
122092 | ERROR | Cannot access canextend script "%s" on server "%s" | 原因: {server} で「canextend」スクリプトを見つけられなかったので、LifeKeeper は拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122097 | ERROR | Usage: %s %s | 原因: 「config処置s」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122098 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122099 | ERROR | Unable to update the resource %s to change the %s to %s on %s. | 原因: LifeKeeper は情報フィールドに情報を入力できませんでした。 処置: LifeKeeper を再起動し、操作を再試行してください。 |
122100 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122101 | ERROR | Unable to update the resource %s to change the %s to %s on %s. | 原因: LifeKeeper は {server} で情報フィールドに情報を入力できませんでした。 処置: {server} で LifeKeeper を再起動し、操作を再試行してください。 |
122103 | ERROR | Usage: %s %s | 原因: 作成操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122124 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122126 | ERROR | Unable to "%s" on "%s | 原因: 「rlslocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122127 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122129 | ERROR | Unable to "%s" on "%s | 原因:「getlocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122131 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122133 | ERROR | Unable to create a file system resource hierarchy for the file system %s. | 原因: 「filesyshier」の実行中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
122135 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122140 | ERROR | Resource "%s" is not ISP on server "%s" Manually bring the resource in service and retry the operation | 原因: リスナーリソースが依存する IP リソース {tag} は ISP の必要があります。 処置: メッセージテキストに記載されている手順を実行してください。 |
122141 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122144 | ERROR | Usage: %s %s | 原因: 「create_ins」操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122145 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因:「app_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122146 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因: 「typ_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122147 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因: 「newtag」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122148 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122149 | ERROR | An error has occurred in utility %s on server %s. View the LifeKeeper logs for details and retry the operation. | 原因: 「ins_setstate」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122150 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を作成できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122151 | ERROR | Usage: %s %s | 原因: 「depstoextend」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122152 | ERROR | Usage: %s %s | 原因: 「extend」操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122153 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122154 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 |
122155 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | 原因: リスナーリソースの拡張中に、同じ {tag} または {id} で異なるリソースアプリケーションおよびタイプを使用しているリソースインスタンスが見つかりました。 処置: リソース ID は一意のものにする必要があります。Oracle Listener リソースインスタンスに合致する ID のリソースインスタンスを削除してください。 |
122156 | ERROR | Cannot access extend script "%s" on server "%s" | 原因: LifeKeeper は、{server} でスクリプト EXTEND が見つからなかったので、リソース階層を拡張できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122157 | ERROR | Usage: %s %s | 原因: 「getConfigIps」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122158 | ERROR | The file %s is not a valid listener file. The file does not contain any listener definitions. | 原因: リスナー定義が見つかりませんでした。 処置: リスナー定義が listener.ora にあることを確認し、操作を再試行してください。 |
122159 | ERROR | Usage: %s %s | 原因: 「getSidListeners」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122160 | ERROR | The file %s is not a valid listener file. The file does not contain any listener definitions. | 原因: リスナー定義が見つかりませんでした。 処置: リスナー定義が listener.ora にあることを確認し、操作を再試行してください。 |
122161 | ERROR | Usage: %s %s | 原因: 「lsn-display」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122162 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 処置: LifeKeeper の設定を確認してください。 |
122163 | ERROR | Usage: %s %s | 原因: updateHelper 操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122164 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因: LifeKeeper は、{server} でリソース {resource} を更新できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122166 | ERROR | Usage: %s %s | 原因: 「updateHelper」操作で無効なパラメーターが指定されました。 処置: パラメーターを確認し、操作を再試行してください。 |
122170 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122171 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122172 | ERROR | Usage: %s %s | 原因: 「updIPDeps」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122173 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因: LifeKeeper は、{server} でリソース {resource} を更新できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122175 | ERROR | Unable to "%s" on "%s | 原因: 「rlslocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122177 | ERROR | Unable to "%s" on "%s | 原因:「getlocks」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122180 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122181 | ERROR | Unable to create a dependency between parent tag %s and child tag %s. | 原因: 「dep_create」の実行中に予期しないエラーが発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122183 | ERROR | The path %s is not a valid file. | 原因: listener.ora ファイルがありません。 処置: ファイルが存在していることを確認し、操作を再試行してください。 |
122185 | ERROR | The file %s is not a valid listener file. The file does not contain any listener definitions. | 原因: LifeKeeper は有効なリスナー定義の検索に失敗しました。 処置: 有効なリスナー定義が listener.ora にあることを確認し、操作を再試行してください。 |
122186 | ERROR | The value specified for %s cannot be empty. Please specify a value for this field. | 原因:設定ファイルまたは実行可能ファイルの {path} フィールドが空です。 処置: 空でない値を {path} に入力し、操作を再試行してください。 |
122187 | ERROR | The path %s is not a valid file or directory. | 原因: 定義済み {path} が無効です。 処置: {path} が存在していることを確認し、操作を再試行してください。 |
122188 | ERROR | The path %s is not a valid file or directory. | 原因: {path} がありません。 処置: {path} が存在していることを確認し、操作を再試行してください。 |
122189 | ERROR | The value specified for %s cannot be empty. Please specify a value for this field. | 原因: 設定および実行パスフィールドが空です。 処置: フィールドのパスを入力してください。 |
122190 | ERROR | Usage: %s %s | 原因: 「valid_rpath」操作で無効な引数が指定されました。 処置: 引数を確認し、操作を再試行してください。 |
122191 | ERROR | The values specified for the target and the template servers are the same. | 原因: valid_rpath の無効な引数。 処置: 引数を確認し、操作を再試行してください。 |
122192 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122193 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122194 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122195 | ERROR | Unable to find the configuration file "oratab" in its default locations, /etc/oratab or %s on "%s" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122196 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因:LifeKeeper は、{server} でリソース {resource} を削除できませんでした。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
122197 | ERROR | Unable to find the configuration file \"oratab\" in its default locations, /etc/oratab or $listener::oraTab on \"$me\" | 原因: /etc/oratab または {path} に oratab ファイルがありません。 処置: oratab ファイルが {path} にあること、または /etc/default/Lifekeeper の ORACLE_ORATABLOC が有効なパスに設定されていることを確認してください。 |
122198 | ERROR | remove for $okListener failed. | |
122251 | ERROR | Update of pluggable database info field for "%s" on "%s" failed (%s). | |
122252 | ERROR | Initial connect with query buffer to database "%s" on "%s" failed, testing output. | |
122253 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | |
122261 | ERROR | The Oracle resource (%s) and dependency are not set on %s. | |
122262 | ERROR | Usage: %s %s | |
122263 | ERROR | The restore of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_RESTORE_TIMEOUT in /etc/default/LifeKeeper. | |
122264 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122268 | ERROR | Failed to create object instance for Oracle on "%s". | |
122269 | ERROR | no dependency for Oracle on "%s". | |
122270 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122271 | ERROR | Usage: %s %s | |
122272 | ERROR | The remove of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_REMOVE_TIMEOUT in /etc/default/LifeKeeper. | |
122273 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122277 | ERROR | Usage: %s %s | |
122278 | ERROR | Failed to create object instance for Oracle on "%s". | |
122279 | ERROR | no dependency for Oracle on "%s". | |
122280 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122281 | ERROR | The quickCheck of %s has timed out on server %s. The default TIMEOUT is 45 seconds. To increase the TIMEOUT, set ORACLE_QUICKCHECK_TIMEOUT in /etc/default/LifeKeeper. | |
122282 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122284 | ERROR | Failed to create object instance for Oracle on "%s". | |
122285 | ERROR | no dependency for Oracle on "%s". | |
122287 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122288 | ERROR | Usage: %s %s | |
122291 | ERROR | Cannot extend resource "%s" to server "%s" | |
122292 | ERROR | The values specified for the target and the template servers are the same: "%s". | |
122294 | ERROR | Cannot access canextend script "%s" on server "%s" | |
122295 | ERROR | Usage: %s %s | |
122296 | ERROR | DB instance "%s" is not protected on "%s". | |
122297 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122298 | ERROR | Unable to locate the oratab file "%s" on "%s". | |
122299 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | |
122301 | ERROR | Unable to "%s" on "%s" during resource create. | |
122302 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122304 | ERROR | Unable to "%s" on "%s" during resource create. | |
122305 | ERROR | Unable to determine Oracle user for "%s" on "%s". | |
122306 | ERROR | Error creating resource "%s" on server "%s" | |
122308 | ERROR | Dependency creation between Oracle pluggable database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason | |
122309 | ERROR | %s | |
122311 | ERROR | In-service attempted failed for tag "%s" on "%s". | |
122312 | ERROR | Usage: %s %s | |
122313 | ERROR | Create of app "%s" on "%s" failed with return code of "%d". | |
122314 | ERROR | Create of typ "%s" for app "%s" on "%s" failed with return code of "%d". | |
122316 | ERROR | Create of resource tag via "newtag" on "%s" failed. | |
122318 | ERROR | Error creating resource "%s" on server "%s" | |
122320 | ERROR | Setting "resstate" for resource "%s" on "%s" failed with return code of "%d". | |
122321 | ERROR | Error creating resource "%s" on server "%s" | |
122322 | ERROR | Usage: %s %s | |
122323 | ERROR | Usage: %s %s | |
122324 | ERROR | Usage: %s %s | |
122325 | ERROR | Cannot extend resource "%s" to server "%s" | |
122326 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | |
122327 | ERROR | Error creating resource "%s" on server "%s" | |
122328 | ERROR | Cannot access extend script "%s" on server "%s" | |
122329 | ERROR | Cannot extend resource "%s" to server "%s" | |
122330 | ERROR | Usage: %s %s | |
122331 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122332 | ERROR | Usage: %s %s | |
122334 | ERROR | Backup node %s is unreachable; abort protection PDB changes. | |
122336 | ERROR | Update of protection PDB failed for "%s" on "%s". | |
122339 | ERROR | Usage: %s %s | |
122340 | ERROR | Usage: %s %s | |
122341 | ERROR | Usage: %s %s | |
122342 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122343 | ERROR | Usage: %s %s | |
122344 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | |
122348 | ERROR | Failed to create flag "%s" on "%s". | |
122350 | ERROR | Failed to create object instance for Oracle on "%s". | |
122351 | ERROR | no dependency for Oracle on "%s". | |
122353 | ERROR | Unable to find the Oracle executable "%s" on "%s". | |
122356 | ERROR | Usage: %s %s | |
122357 | ERROR | Failed to create object instance for OraclePDB on "%s". | |
122358 | ERROR | The selected oracle SID "%s" is not a CDB. | |
122359 | ERROR | No protectable PDB found for the selected SID "%s". | |
122360 | ERROR | No protected Oracle database found on "%s". | |
122500 | ERROR | Usage: %s %s | 原因: 作成操作で無効なパラメーターが指定されました。 処置: パラメーターが正しいことを確認し、操作を再実行してください。 |
122501 | ERROR | DB instance "%s" is already protected on "%s". | 原因: {server} で LifeKeeper によってすでに保護されている Oracle データベースインスタンス {sid} を保護しようとしました。 処置: 別のデータベースインスタンス {sid} を LifeKeeper の保護用に選択する必要があります。 |
122502 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから操作を再試行する必要があります。 |
122503 | ERROR | Unable to locate the oratab file "%s" on "%s". | 原因: {server} のデフォルトまたは代替ロケーションで oratab ファイルが見つかりませんでした。 処置: oratab ファイルが存在しており、Oracle ユーザの適切な権限を持っていることを確認してください。「create」操作を完了するには有効な oratab ファイルが必要です。 |
122504 | ERROR | Unable to determine Oracle user for "%s" on "%s". | 原因: Oracle Application Recovery Kit は Oracle データベースインストールバイナリの所有権を特定できませんでした。 処置: Oracle バイナリの所有者は {server} の有効な非 root ユーザである必要があります。Oracle データベース所有権の権限と所有権を修正し、操作を再試行してください。 |
122505 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | 原因: データベースインスタンス {sid} が実行されていません。またはデータベースへの接続が、指定された認証情報では使用できませんでした。 処置: 「create」操作を完了するには、データベースインスタンス {sid} を {server} で起動し、正しい認証情報を指定する必要があります。 |
122506 | ERROR | Unable to determine Oracle dbspaces and logfiles for "%s" on "%s". | 原因: 必要なテーブルスペース、ログファイル、関連データベースファイルの場所を特定するクエリーが失敗しました。これは、内部データベースエラーが原因の可能性もあります。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122507 | ERROR | Unknown chunk type found for "%s" on "%s". | 原因: 指定したテーブルスペース、ログファイル、または必要なデータベースファイルが LifeKeeper でサポートされているファイルまたはキャラクタデバイスタイプではありません。 処置: 指定したファイル {database_file} は既存のキャラクタデバイスまたはファイルを参照する必要があります。Oracle インストールドキュメントを参照し、指定したファイル {database_file} を、サポートされているファイルまたはキャラクタデバイスタイプとして再作成してください。 |
122508 | ERROR | DB Chunk "%s" for "%s" on "%s" does not reside on a shared file system. | 原因: 指定したテーブルスペース、ログファイル、またはその他の必要なデータベースファイル {database_file} は、クラスター内の他のシステムと共有されているファイルシステムに存在します。 処置: コミュニケーションパスが正常に作成されたことを確認するには、LifeKeeper UI または「lcdstatus (1M)」を使用してください。ストレージ保護に必要なアプリケーションリカバリーキットがインストールされたことを確認するには、「rpm」を使用してください。ファイルが実際には共有ストレージにないことを確認し、ない場合は、共有ストレージデバイスに移動してください。 |
122510 | ERROR | File system create failed for "%s" on "%s". Reason: | 原因: LifeKeeper は、指定したサーバー {server} でリソース {filesystem} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
122511 | ERROR | %s | 原因: メッセージに「filesyshier」コマンドの結果が含まれています。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122513 | ERROR | Dependency creation between Oracle database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason: | 原因: LifeKeeper は、データベースリソース {tag} と必要な子リソース {childtag} との間に依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。問題が修正されている場合は、{tag} と {childtag} との間の依存関係を手動で作成できる可能性があります。 |
122514 | ERROR | Unable to "%s" on "%s" during resource create. | 原因: Oracle Application Recovery Kit は、「rlslocks」コマンドで管理ロックを解除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122516 | ERROR | Raw device resource created failed for "%s" on "%s". Reason: | 原因: LifeKeeper は、指定したサーバー {server} でリソース {raw device} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
122519 | ERROR | In-service attempted failed for tag "%s" on "%s". | 原因: {server} の {tag} に対する「perform_action」コマンドがデータベース {sid} の開始に失敗しました。in service 操作に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから 「create」操作を再試行する必要があります。 |
122521 | ERROR | Create of app "%s" on "%s" failed with return code of "%d". | 原因: 内部アプリケーションタイプを作成する「app_create」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122522 | ERROR | Create of typ "%s" for app "%s" on "%s" failed with return code of "%d". | 原因: 内部リソースタイプを作成する「typ_create」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122524 | ERROR | Setting "resstate" for resource "%s" on "%s" failed with return code of "%d". | 原因: リソースの状態を {state} に設定する「ins_setstate」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122525 | ERROR | The values specified for the target and the template servers are the same: "%s". | 原因: 「extend」操作でターゲットサーバーとテンプレートサーバーで指定した値が同じでした。 処置: {target server} と {template server} に対して正しいパラメーターを指定する必要があります。{target server} は、{tag} が拡張されるサーバーです。 |
122526 | ERROR | Unable to locate the oratab file in "/etc" or in "%s" on "%s". | 原因: {server} のデフォルトまたは代替ロケーションで oratab ファイルが見つかりませんでした。 処置: oratab ファイルが存在しており、Oracle ユーザの適切な権限を持っていることを確認してください。「extend」操作を完了するには有効な oratab ファイルが必要です。 |
122527 | ERROR | Unable to retrieve the Oracle user on "%s". | 原因: 「canextend」操作または「extend」操作の間に {template server} から Oracle ユーザを取得できませんでした。 処置: Oracle バイナリの所有者は、{target server} と {template server} の有効なユーザである必要があります。Oracle データベース所有権の権限と所有権を修正し、操作を再試行してください。 |
122528 | ERROR | The Oracle user and/or group information for user "%s" does not exist on the server "%s". | 原因: LifeKeeper は、サーバー {server} の Oracle ユーザ {user} に対して Oracle ユーザおよびグループ情報を検索できません。 処置: 指定した {server} に Oracle ユーザ {user} が存在していることを確認してください。ユーザ {user} が存在しない場合、クラスター内のすべてのサーバーで、同じ uid および gid を使用して作成する必要があります。 |
122529 | ERROR | The id for user "%s" is not the same on template server "%s" and target server "%s". | 原因: ターゲットサーバー {target server} にある Oracle ユーザ {user} のユーザ ID が、テンプレートサーバー {template server} にあるユーザ {user} の値と一致しません。 処置:Oracle ユーザ {user} のユーザ ID はクラスター内のすべてのサーバーで一致している必要があります。ユーザ ID の不一致をすべてのサーバーで手動で修正し、「extend」操作を再試行する必要があります。 |
122530 | ERROR | The group id for user "%s" is not the same on template server "%s" and target server "%s". | 原因: ターゲットサーバー {target server} にある Oracle ユーザ {user} のグループ ID が、テンプレートサーバー {template server} にあるユーザ {user} の値と一致しません。 処置: Oracle ユーザ {user} のグループ ID はクラスター内のすべてのサーバーで一致している必要があります。グループ ID の不一致をすべてのサーバーで手動で修正し、「extend」操作を再試行する必要があります。 |
122532 | ERROR | No file system or raw devices found to extend for "%s" on "%s". | 原因: サーバー {template server} で Oracle リソース {tag} の依存ファイルシステムまたは Raw デバイスリソースが見つかりません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122533 | WARN | A RAMDISK (%s) was detected in the ORACLE Database configuration for "%s" on "%s". LifeKeeper cannot protect RAMDISK. This RAMDISK resource will not be protected by LifeKeeper! ORACLE hierarchy creation will continue. | 原因: 指定したテーブルスペース、ログファイル、またはその他のデータベースファイル {database_file} が ramdisk として検出されました。現在の LifeKeeper 製品では、このタイプのリソースに保護を適用できません。 処置: ramdisk は保護されません。すべての Oracle データベース操作で必要なデータベースファイル {database_file} が使用可能になるように手動で確認する必要があります。 |
122534 | ERROR | Failed to initialize object instance for Oracle sid "%s" on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122537 | ERROR | Update of instance info field for "%s" on "%s" failed (%s). | 原因: 内部リソース情報フィールドを更新する「ins_setinfo」コマンドの実行中にエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122538 | ERROR | Initial connect with query buffer to database "%s" on "%s" failed, testing output. | 原因: データベースの状態を判別するために Oracle データベース {sid} に接続しようとしたところ、失敗しました。 処置: 指定した認証情報で接続が失敗しました。隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122542 | ERROR | The "%s [ %s ]" attempt of the database "%s" appears to have failed on "%s". | 原因: データベースインスタンス {sid} に対して メソッド {action_method} を使用した Oracle アクション {action} がサーバー {server} で失敗しました。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122543 | ERROR | All attempts to "%s" database "%s" on "%s" failed | 原因:サーバー {server} の Oracle データベース {sid} に対するアクション {action} を実行するためのあらゆる取り組みが失敗しました。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122544 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。このエラーは oratab ファイルを開こうとしている間に発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122545 | ERROR | Unable to locate the oratab file in "/etc" or in "%s" on "%s". | 原因: {server} のデフォルトまたは代替ロケーションで oratab ファイルが見つかりませんでした。 処置: oratab ファイルが存在しており、Oracle ユーザの適切な権限を持っていることを確認してください。「extend」操作を完了するには有効な oratab ファイルが必要です。 |
122546 | ERROR | Unable to open file "%s" on "%s" (%s). | 原因: エラー {error} のため、サーバー {server} では、指定したファイル {file} を開くことも、ファイルにアクセスすることもできませんでした。 処置: 指定したファイル {file} の有無や権限を確認してください。隣接するログメッセージおよび関連エラーで詳細を確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122547 | ERROR | (cleanUpPids):Forcefully killing hung pid(s):pid(s)="%s" | 原因: プロセス {pid} が正常終了するための要求に応答できませんでした。プロセス {pid} は強制終了します。 処置: コマンドラインで、プロセス {pid} が終了していることを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122548 | ERROR | Unable to locate the DB utility (%s/%s) on this host. | 原因: {path/utility} にある Oracle バイナリおよび必要なデータベースユーティリティ {utility} がこのサーバー {server} では見つかりませんでした。 処置: Oracle バイナリおよび必要なソフトウェアユーティリティがインストールされ、サーバー {server} で適切に設定されていることを確認してください。Oracle バイナリを各ノードにローカルインストールするか、クラスター内の全ノードで使用可能な共有ストレージに配置する必要があります。 |
122549 | ERROR | Oracle internal error or non-standard Oracle configuration detected. Oracle User and/or Group set to "root". | 原因: 検出された Oracle データベースインストールの所有権が、ルートユーザまたはルートグループに解決されています。ルートによる Oracle インストールの所有権は標準的ではない設定です。 処置: Oracle バイナリの所有者は {server} の有効な非 root ユーザである必要があります。Oracle データベース所有権の権限と所有権を修正し、操作を再試行してください。 |
122550 | ERROR | Initial inspection of "%s" failed, verifying failure or success of received output. | 原因: 前の Oracle クエリー {query} またはコマンド {cmd} が成功を返すことができませんでした。 処置: 隣接するログメッセージおよび関連エラーで詳細を確認してください。Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122551 | ERROR | Logon failed with "%s" for "%s" on "%s". Please check username/password and privileges. | 原因: 認証情報 {credentials} を使用してサーバー {server} のデータベースインスタンス {sid} へのログオンに失敗しました。無効なユーザ {user} またはパスワードが指定されました。 処置: Oracle データベースユーザ {user} およびパスワード {password} が有効であることを確認してください。また、Oracle データベースユーザ {user} は、試行されるアクションに対して十分な権限を持っている必要があります。 |
122552 | ERROR | %s | 原因: メッセージに「sqlplus」コマンドの結果が含まれています。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122553 | ERROR | Unable to open file "%s" on "%s" (%s). | 原因: エラー {error} のため、サーバー {server} では、指定したファイル {file} を開くことも、ファイルにアクセスすることもできませんでした。 処置: 指定したファイル {file} の有無や権限を確認してください。隣接するログメッセージおよび関連エラーで詳細を確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122554 | ERROR | The tag "%s" on "%s" is not an Oracle instance or it does not exist. | 原因: サーバー {server} の指定されたタグ {tag} は、既存の有効な Oracle リソースインスタンスを参照していません。 処置: UI または「lcdstatus (1M)」を使用して、リソースタグ {tag} の有無を確認してください。コマンド「ora-display」を使用するには、リソースタグ {tag} が Oracle リソースインスタンスである必要があります。 |
122555 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: Oracle リソースインスタンスの認定ユーザ、パスワード、データベースロールを更新している際に、保護されている Oracle インスタンスの内部表現を作成しようとしたところ、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122557 | ERROR | Update of user and password failed for "%s" on "%s". | 原因: リソースタグ {tag} のユーザおよびパスワードを更新する要求に失敗しました。指定した認証情報では、サーバー {server} に対する初期検証/接続ができませんでした。 処置: 目的の操作に対して正しい認証情報 {user/password} が指定されていることを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122559 | ERROR | Update of user and password failed for "%s" on "%s". | 原因: サーバー {server} のリソースタグ {tag} のユーザおよびパスワード情報の更新に失敗しました。 処置: 目的の操作に対して正しい認証情報 {user/password} が指定されていることを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122562 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 必要な Oracle 実行ファイル {exe} がこのサーバー {server} では見つかりませんでした。 処置: Oracle バイナリおよび必要なソフトウェアユーティリティがインストールされ、サーバー {server} で適切に設定されていることを確認してください。Oracle バイナリを各ノードにローカルインストールするか、クラスター内の全ノードで使用可能な共有ストレージに配置する必要があります。 |
122566 | ERROR | Unable to find Oracle home for "%s" on "%s". | 原因: Oracle ホームディレクトリ {Oracle home} には、Oracle インスタンス {sid} の正常な動作に必要なファイルが含まれていないようです。 処置: Oracle ホームディレクトリ {Oracle home} に Oracle バイナリ、有効な spfile{sid}.ora、または init{sid}.ora ファイルが含まれていることをコマンドラインで確認してください。 |
122567 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。指定した内部 ID {id} が、予想した SID {sid} と一致しません。 処置: パラメーターが正しいことを確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122568 | ERROR | DB Processes are not running on "%s". | 原因: Oracle インスタンスのプロセスチェックで、サーバー {server} で実行されているプロセスは見つかりませんでした。 処置: ローカルリカバリーが有効になっている場合、Oracle インスタンスはローカルで再起動されます。隣接するログメッセージで詳細および関連メッセージを確認してください。 |
122572 | ERROR | Failed to create flag "%s" on "%s". | 原因: スタンバイノードへのフェイルオーバーを促す Oracle ローカルリカバリー処理を制御するためのフラグを作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122574 | ERROR | all attempts to shutdown the database %s failed on "%s". | 原因: ローカルリカバリープロセス中に、おそらくデータベース接続数が上限に達したため、Oracle データベースのシャットダウンに失敗しました。 処置: Oracle ログで、許容接続数の上限に達したことによって起こった接続の障害の有無を確認してください。その障害が見つかった場合は、接続数を増やしてください。また、ローカルリカバリーの実行による quickCheck の障害発生が、接続の失敗を引き起こさないように、LK_ORA_NICE を 1 に設定してください。 |
122597 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中、拡張前のチェックの際に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、pre-extend を再試行してください。 |
122598 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 作成中の Oracle インスタンスの内部表現を作成しているときに、Oracle ホームディレクトリの有効性を確認しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、「create」を再試行してください。 |
122599 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、テンプレートシステムで Oracle ユーザをルックアップしようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、extend を再試行してください。 |
122600 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、リソースプロパティを表示しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、リソースプロパティの表示を再試行してください。 |
122601 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、有効なデータベース認証を確認しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、コマンドを再試行してください。 |
122603 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、Oracle リソースインスタンスに対してヘルスチェックを実行しようとして、予期しないエラーが発生しました。 処置: 正しい引数が quickCheck コマンドに渡されていることを確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、restore を再試行してください。 |
122604 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護中の Oracle インスタンスの内部表現を作成しているときに、Oracle リソースインスタンスに対してローカルリカバリーを実行しようとして、予期しないエラーが発生しました。 処置: 正しい引数が「recover」コマンドに渡されていることを確認し、隣接するログメッセージと関連メッセージで詳細を確認してください。レポートされているエラーを修正してから、recover を再試行してください。 |
122606 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | 原因: データベースインスタンス {sid} が実行されていません。またはデータベースへの接続が、指定された認証情報では使用できません。 処置: 選択した操作を完了するには、データベースインスタンス {sid} を {server} で起動し、正しい認証情報を指定する必要があります。 |
122607 | ERROR | The Oracle database "%s" is not running or no open connections are available on "%s". | 原因: データベースインスタンス {sid} が実行されていません。またはデータベースへの接続が、指定された認証情報では使用できません。 処置: 選択した操作を完了するには、データベースインスタンス {sid} を {server} で起動し、正しい認証情報を指定する必要があります。 |
122608 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 「remove」操作で、Oracle リソースを Out of Service にするために必要なリソースオブジェクトインスタンスを作成できませんでした。 処置: 正しい引数が「remove」コマンドに渡されていることを確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、restore を再試行してください。 |
122609 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 「restore」操作で、Oracle リソースを In Service にするために必要なリソースオブジェクトインスタンスを作成できませんでした。 処置: 正しい引数が「restore」コマンドに渡されていることを確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから、「restore」を再試行してください。 |
122610 | ERROR | Unable to "%s" on "%s" during resource create. | 原因: Oracle Application Recovery Kit は、リソース作成中に「getlocks」コマンドで管理ロックを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create を再試行してください。 |
122611 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 File System リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122612 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 Raw リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122613 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 Raw リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122614 | ERROR | %s | 原因: 要求された親 Oracle リソースと子 Listener リソースとの間の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、create 操作を再試行してください。 |
122616 | ERROR | %s | 原因: Oracle データベースの要求された起動またはシャットダウンに失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから、「restore」または「remove」操作を再試行してください。 |
122618 | ERROR | Dependency creation between Oracle database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason: | 原因: LifeKeeper は、データベースリソース {tag} と必要な子リソース {childtag} との間に依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。問題が修正されている場合は、{tag} と {childtag} との間の依存関係を手動で作成できる可能性があります。 |
122619 | ERROR | Dependency creation between Oracle database "%s (%s)" and the dependent resource "%s" on "%s" failed. Reason: | 原因: LifeKeeper は、データベースリソース {tag} と必要な子リソース {childtag} との間に依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。問題が修正されている場合は、{tag} と {childtag} との間の依存関係を手動で作成できる可能性があります。 |
122625 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: quickCheck プロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122626 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 削除プロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122627 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: リストアプロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122628 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 復旧プロセスが、Oracle の実行可能ファイル「sqlplus」を見つけることができませんでした。 処置: Oracle 設定を確認し、隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされている問題を修正してください。 |
122632 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: 削除の際に、削除プロセスに渡されるリソースインスタンス {sid} が、{sid} の内部リソースインスタンス情報と一致しません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122633 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: リストアの際に、restore に渡されるリソースインスタンス {sid} が、{sid} の内部リソースインスタンス情報と一致しません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122634 | ERROR | Oracle SID mismatch. The instance SID "%s" does not match the SID "%s" specified for the command. | 原因: リソースリカバリーの際に、recovery に渡されるリソースインスタンス {sid} が、{sid} の内部リソースインスタンス情報と一致しません。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122636 | ERROR | END failed hierarchy "%s" of resource "%s" on server "%s" with return value of %d | 原因:{server} で Oracle リソース階層 {tag} の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122638 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因:サーバー {server} の Oracle データベースリソース {tag} で作成アクションに失敗しました。シグナル {sig} が作成プロセスによって受信されました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから操作を再試行する必要があります。 |
122640 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122641 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122642 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122643 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122644 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソースインスタンス情報 {tag} を {server} で取得しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正し、extend を再試行してください。 |
122645 | ERROR | Cannot access canextend script "%s" on server "%s" | 原因: {server} で依存関係の子リソース用の 「canextend」スクリプトが見つからなかったので、LifeKeeper は拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
122646 | ERROR | Error getting resource information for resource "%s" on server "%s" | 原因: リソースインスタンス情報 {tag} を {server} で取得しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正し、extend を再試行してください。 |
122647 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: LifeKeeper は、{server} でリソース {resource} を拡張できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122648 | ERROR | Resource with either matching tag "%s" or id "%s" already exists on server "%s" for App "%s" and Type "%s" | 原因: データベースリソースの拡張中に、同じ {tag} または {id} で異なるリソースアプリケーションおよびタイプを使用しているリソースインスタンスが見つかりました。 処置: リソース ID は一意のものにする必要があります。Oracle リソースインスタンスに合致する ID のリソースインスタンスを削除してください。 |
122649 | ERROR | Error creating resource "%s" on server "%s" | 原因: Oracle リソースインスタンス {tag} を {server} に作成しようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122650 | ERROR | Cannot access extend script "%s" on server "%s" | 原因: 依存関係にある子リソースのスクリプト {extend} がサーバー {server} で見つけられなかったので、サーバー {server} にデータベースリソース {resource} を拡張する要求が失敗しました。 処置: LifeKeeper の設定を確認してください。 |
122651 | ERROR | Cannot extend resource "%s" to server "%s" | 原因: 依存関係にある子リソースの拡張でエラーが発生したため、サーバー {server} にデータベースリソース {resource} を拡張する要求が失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
122654 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: quickCheck プロセスがシグナルを受信したため、データベース {sid} のヘルスチェックが終了しました。これはおそらく、quickCheck プロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースのヘルスチェック時間は ORACLE_QUICKCHECK_TIMEOUT の設定で制御してください。ヘルスチェックプロセスの完了に今より長い時間を割り当てる場合は、45 秒よりも大きな値に設定してください。 |
122655 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: 削除プロセスがシグナルを受信したため、データベース {sid} を「Out of Service」にする要求が終了しました。これはおそらく、削除プロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースの削除時間は ORACLE_REMOVE_TIMEOUT の設定で制御してください。削除プロセスの完了に今より長い時間を割り当てる場合は、240 秒よりも大きな値に設定してください。 |
122659 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: リストアプロセスがシグナルを受信したため、データベース {sid} を「In Service」にする要求が終了しました。これはおそらく、リストアプロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースのリストア時間は ORACLE_RESTORE_TIMEOUT の設定で制御してください。リストアプロセスの完了に今より長い時間を割り当てる場合は、240 秒よりも大きな値に設定してください。 |
122663 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: リカバリープロセスがシグナルを受信したため、失敗したデータベースのリカバリーが終了しました。これはおそらく、リカバリープロセスの処理に、割り当てられているよりも長い時間が必要となっているためです。 処置: Oracle リソースのリカバリー時間は ORACLE_RESTORE_TIMEOUT と ORACLE_REMOVE_TIMEOUT の設定で制御してください。リカバリーの完了に今より長い時間を割り当てる場合は、一方または両方を 240 秒よりも大きな値に設定してください。 |
122670 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。更新プロセスで使用する一時ファイルを開こうとして、エラーが発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122671 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。更新プロセスで使用する一時ファイルを閉じようとして、エラーが発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122672 | ERROR | Update of "%s" sid "%s" on "%s" failed. Reason: "%s" "%s" failed: "%s". | 原因: データベース {sid} の oratab エントリを更新しようとしている際に予期しないエラーが発生しました。一時ファイルの名前を oratab に変更しようとして、エラーが発生しました。 処置: システム起動時にデータベースが自動で起動されないようにするために、{sid} の oratab ファイルエントリを手動で更新する必要があります。 |
122673 | ERROR | Unable to log messages queued while running as oracle user %s on %s. Reason: $! | 原因: メッセージをログファイルに追加しようとして、予期しないエラー {reason} が発生しました。これらのメッセージは、Oracle ユーザとして実行している間に生成されました。 処置: 障害に関する理由を参照し、修正処置を実行してください。 |
122674 | ERROR | Unable to open %s Reason: %s. | 原因: Oracle データベースへの接続を開き、データベース {cmd} を実行しようとしたときに、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。また、Oracle ログ (alert.log) および関連トレースログ (*.trc) で詳細を確認し、レポートされている問題を修正してください。 |
122680 | ERROR | Unable to find Oracle home for “%s” on “%s”. | 原因: Oracle ホームディレクトリ {Oracle home} には、Oracle インスタンス {sid} の正常な動作に必要なファイルが含まれていないようです。 処置: Oracle ホームディレクトリ {Oracle home} に Oracle バイナリ、有効な spfile{sid}.ora、または init{sid}.ora ファイルが含まれていることをコマンドラインで確認してください。 |
122681 | ERROR | Failed to create object instance for Oracle on "%s". | 原因: 保護されている Oracle インスタンスの内部表現を作成中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
122682 | ERROR | Unable to find the Oracle executable "%s" on "%s". | 原因: 必要な Oracle 実行ファイル {exe} がこのサーバー {server} では見つかりませんでした。 処置: Oracle バイナリおよび必要なソフトウェアユーティリティがインストールされ、サーバー {server} で適切に設定されていることを確認してください。Oracle バイナリを各ノードにローカルインストールするか、クラスター内の全ノードで使用可能な共有ストレージに配置する必要があります。 |
122683 | ERROR | Backup node %s is unreachable; abort username/password changes. | 原因: バックアップノード {node} に接続できません。保留中のユーザー名/パスワードに対する変更は中断されました。 処置: 指定したバックアップノード {node} 上でSIOS LifeKeeper が起動中で、すべてのコミュニケーションパスが確立されていることが確認できたら、再度操作を行ってください。 |
122684 | ERROR | The restore of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_RESTORE_TIMEOUT in /etc/default/LifeKeeper. | 原因: サーバー {server} 上で Oracle リソース {resource} の restore 処理がタイムアウトしました。これは、In Service 処理が設定された時間を経過すると発生します。 処置: Oracle リソースのリストア時間は ORACLE_RESTORE_TIMEOUT の設定で制御してください。リストアプロセスの完了に今より長い時間を割り当てる場合は、240 秒よりも大きな値に設定してください。 |
122685 | ERROR | The remove of %s has timed out on server %s. The default TIMEOUT is 300 seconds. To increase the TIMEOUT, set ORACLE_REMOVE_TIMEOUT in /etc/default/LifeKeeper. | 原因: サーバー {server} 上で Oracle リソース {resource} の remove 処理がタイムアウトしました。 これは、Out of Service 処理が設定された時間を経過すると発生します。 処置: Oracle リソースの削除時間は ORACLE_REMOVE_TIMEOUT の設定で制御してください。削除プロセスの完了に今より長い時間を割り当てる場合は、240 秒よりも大きな値に設定してください。 |
122686 | ERROR | The quickCheck of %s has timed out on server %s. The default TIMEOUT is 45 seconds. To increase the TIMEOUT, set ORACLE_QUICKCHECK_TIMEOUT in /etc/default/LifeKeeper. | 原因: サーバー {server} 上で Oracle リソース {resource} に対する quickCheck がタイムアウトしました。 これは、health check 処理が設定された時間を経過すると発生します。 処置: Oracle リソースのヘルスチェック時間は ORACLE_QUICKCHECK_TIMEOUT の設定で制御してください。ヘルスチェックプロセスの完了に今より長い時間を割り当てる場合は、45 秒よりも大きな値に設定してください。 |
122687 | ERROR | Usage: %s %s | 原因: getalertlog スクリプトに対して無効なパラメーターが指定されました。 処置: Oracle リソースのタグ名が、最初のコマンドラインのパラメーターとして提供される必要があります。パラメーターが正しいかどうかを確認し、再度操作を行ってください。 |
122702 | ERROR | Failed start OHAS. | |
122704 | ERROR | Failed start ASM. | |
122706 | ERROR | Failed start Diskgroup. | |
122708 | ERROR | Failed stop Diskgroup. | |
122710 | ERROR | Failed stop ASM. | |
122712 | ERROR | Failed stop OHAS. | |
122713 | ERROR | OHAS is not running. | |
122714 | ERROR | ASM is not running. | |
122715 | ERROR | Diskgroup is not running. | |
122716 | ERROR | $usage | |
122717 | ERROR | Template resource \"$template_tag\" on server \"$template_sys\" does note exist | |
122718 | ERROR | Cannot extend resource \"$template_tag\" to server \"$me\" | |
122719 | ERROR | $usage | |
122720 | ERROR | END failed create of \"$Tag\" due to a \"$sig\" signal | |
122722 | ERROR | Unable to getlocks on $me during resouce create. | |
122725 | ERROR | Error creating resource $Tag. Error ($rc | |
122726 | ERROR | END failed hierarchy create of resource $Tag with return value of $ecode. | |
122728 | ERROR | Unable to rlslocks on $me during resource create. | |
122729 | ERROR | $usage | |
122730 | ERROR | END failed extend of \"$Tag\" due to a \"$sig\" signal | |
122732 | ERROR | Template resource \"$TemplateTag\" on server \"$TemplateSys\" does not exist | |
122733 | ERROR | Error creating resouce \"$Tag\"on server \"$me\" | |
122735 | ERROR | END failed hierarchy extend of resource $Tag with return value of $ecode. | |
122736 | ERROR | $usage | |
122737 | ERROR | Failed to create object instance for Oracle ASM on $oracle::me | |
122738 | ERROR | Usage : $cmd $usage | |
122739 | ERROR | Failed to create object instance for Oracle ASM on \"$me\". | |
122740 | ERROR | $usage | |
122742 | ERROR | backup node $back_dead_name is unreachable; abort protection Diskgroup changes. | |
122744 | ERROR | Update of protection Diskgroup failed for \"$tag\" on \"$oarcleasm::me\" | |
122746 | ERROR | Update of protection Diskgroup failed foor \"$tag\" on \"$remote\" | |
122750 | ERROR | Failed to init the object. | |
122751 | ERROR | Usage: %s %s | |
123006 | FATAL | Unknown version %s of IP address | 原因: IP アドレスが IPv4 でも IPv6 でも有効ではないようです。 処置: 有効な IP アドレスを指定してください。 |
123008 | ERROR | No pinglist found for %s. | 原因: この IP アドレスの pinglist を開こうとして問題が発生しました。 処置: この IP アドレスの pinglist を指定していることを確認してください。 |
123009 | ERROR | List ping test failed for virtual IP %s | 原因: ping リストのどのアドレスからも応答を受信しませんでした。 処置: このノードのネットワーク接続および ping リストの IP が存在するシステムを確認してください。 |
123013 | ERROR | Link check failed for virtual IP %s on interface %s. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、物理レイヤー接続にリンクが存在しないことを示します。 処置: インターフェースの物理接続を確認し、物理レイヤーリンクを有効にしてください。 |
123015 | ERROR | Link check failed for virtual IP %s on interface %s. | 原因: 要求したインターフェースは bonding インターフェースで、スレーブのいずれか 1 つが「NO-CARRIER」です。これは、物理レイヤー接続にリンクが存在しないことを示します。 処置: スレーブインターフェースの物理接続を確認し、物理レイヤーリンクを有効にしてください。 |
123024 | ERROR | IP address seems to still exist somewhere else. | 原因: IP アドレスはネットワークの別の場所で使用中のようです。 処置: 別の IP アドレスを選択して使用するか、この IP アドレスを特定して、現在の使用を無効にしてください。 |
123037 | ERROR | must specify machine name containing primary hierarchy | 原因: creIPhier に指定した引数が不十分です。 処置: 必要な引数をすべて creIPhier に指定してください。 |
123038 | ERROR | must specify IP resource name | 原因: creIPhier に渡された引数が不十分です。 処置: 必要な引数をすべて creIPhier に指定してください。 |
123039 | ERROR | must specify primary IP Resource tag | 原因:「creIPhier」コマンドにプライマリ IP リソースタグの引数が指定されていません。 処置: 必要な引数をすべて指定してください。 |
123042 | ERROR | An unknown error has occurred in utility validmask on machine %s. | 原因: 「validmask」ユーティリティの実行中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123045 | ERROR | An unknown error has occurred in utility getlocks. | 原因: 「getlocks」ユーティリティの実行中に予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123053 | ERROR | Cannot resolve hostname %s | 原因: IP アドレスに対してホスト名が指定されましたが、システムはホスト名を IP アドレスに解決できませんでした。 処置: ホスト名が正確かどうかを確認してから、名前の解決(DIS または /etc/hosts)が正常に機能しており、ホスト名の IP を返すことを確認してください。 |
123055 | ERROR | An unknown error has occurred in utility %s on machine %s. | 原因: IP リソースの作成中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123056 | ERROR | create ip hierarchy failure: perform_action failed | 原因:作成中に IP アドレスをリストアしようとして、予期しないエラーが発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123059 | ERROR | Resource already exists on machine %s | 原因: すでに存在する IP アドレスを作成しようとしました。 処置: 既存のリソースを再利用するか、すでに存在している IP アドレスを手動で削除するか、別の IP アドレスを使用してください。 |
123060 | ERROR | ins_create failed on machine %s | 原因: IP リソースの作成中に予期しない障害が発生しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
123064 | ERROR | An unknown error has occurred in utility %s on machine %s. | 原因: IP リソースの依存関係を作成中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123066 | ERROR | An error occurred during creation of LifeKeeper application=comm on %s. | 原因: 「app_create」の呼び出し中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123068 | ERROR | An error occurred during creation of LifeKeeper resource type=ip on %s. | 原因: 「typ_create」の呼び出し中に障害が発生しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
123089 | ERROR | Link check failed for virtual IP %s on interface %s. | 原因: コマンド "nmcli connection show —active" インターフェイスがアクティブであることを返しませんでした。 処置: エラーログを確認してください。 |
123091 | ERROR | the link for interface %s is down | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、物理レイヤー接続にリンクが存在しないことを示します。 処置: インターフェースの物理接続を確認し、物理レイヤーリンクを有効にしてください。 |
123093 | ERROR | the ping list check failed | 原因: ping リストのどのアドレスからも応答を受信しませんでした。 処置: このノードのネットワーク接続および ping リストの IP が存在するシステムを確認してください。 |
123094 | ERROR | IP address is not assigned to interface %s. | |
123095 | ERROR | broadcast ping failed | 原因: ブロードキャスト ping から応答を受信しませんでした。 処置: サブネット上の 1 つ以上のホストがブロードキャスト ping に応答することを確認してください。仮想 IP が正しいネットワークインターフェースにあることを確認してください。ブロードキャスト ping ではなく、pinglist の使用を検討してください。 |
123096 | ERROR | $msg | 原因: 仮想 IP の実行可能性の判定に使用するブロードキャスト ping に失敗しました。 処置: このリソースの ping リストがプロパティパネルで正常に設定されていることを確認するか、/etc/default/LifeKeeper 設定ファイルに NOBCASTPING=1 を追加してブロードキャスト ping のチェックを確実に無効にしてください。 |
123097 | ERROR | exec_list_ping(): broadcast ping failed. | 原因: 仮想 IP の実行可能性の判定に使用するブロードキャスト ping に失敗しました。 処置: このリソースの ping リストがプロパティパネルで正常に設定されていることを確認するか、/etc/default/LifeKeeper 設定ファイルに NOBCASTPING=1 を追加してブロードキャスト ping のチェックを確実に無効にしてください。 |
123102 | WARN | IP is already configured with wrong netmask: expected %s, found %s. | 原因: IP が間違ったネットマスクで構成されています。 処置: 間違ったネットマスクを使用して、LifeKeeper の外部で IP が追加されました。 コマンドラインから手動で IP を開始しないでください。また、起動時に IP を設定する ifcfg ファイルが sysconfig にないことを確認してください。 |
123299 | ERROR | Unable to open %s. Reason %s | |
123410 | ERROR | Usage error OSUquickCheck | 原因: タグまたは ID なしで OSUquickCheck が呼び出されました。 処置: 有効なタグまたは ID を指定して OSUquickCheck を呼び出します。 |
123411 | ERROR | OSUquickCheck: both tag and id name not specified | 原因: OSUquickCheck には、タグまたはリソース ID が必要です。 |
123412 | ERROR | resource $Tag not found on local server | 原因: OSUquickCheck は、タグまたは ID のリソースを見つけることができませんでした。 |
123414 | ERROR | The link for network interface $IPObj->{‘device’} is down | 原因: リンクダウンしており、リンクアップしようとして失敗しました。 |
123415 | ERROR | No pinglist found for $IPObj->{'ipaddr'} | |
123416 | ERROR | List ping test failed for virtual IP $IPObj->{'ipaddr'} | |
124004 | FATAL | resource tag name not specified | 原因: 「quickCheck」操作で無効な引数が指定されました。 処置: 正しい引数が渡されたことを確認してください。 |
124005 | FATAL | resource id not specified | 原因: 「quickCheck」操作で無効な引数が指定されました。 処置: 正しい引数が渡されたことを確認してください。 |
124007 | FATAL | Failed to get resource information | 原因: ファイルシステムリソースの情報フィールドに正しい情報が含まれていません。 処置: リソースの情報フィールドに正しい情報を入力するか、最近の「lkbackup」からシステムをリストアして元の情報フィールドをリストアします。 |
124008 | ERROR | getId failed | 原因: ファイルシステムリソースは基本ディスクデバイスを見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。リソース階層が有効であること、および必要なストレージキットがすべてインストールされていることを確認してください。 |
124009 | ERROR | LifeKeeper protected filesystem is in service but quickCheck detects the following error: | 原因: ファイルシステムキットはリソースに問題を発見しました。 処置: この直後に表示されるメッセージで詳細を確認してください。 |
124010 | ERROR | "$id" is not mounted | 原因: ファイルシステムリソースがマウントされていません。 処置: 処置は必要ありません。ローカルリカバリーでリソースの再マウントを許可してください。 |
124011 | ERROR | "$id" is mounted but with the incorrect mount options (current mount option list: $mntopts, expected mount option list: $infoopts) | 原因: ファイルシステムリソースが不正にマウントされています。 処置: 処置は必要ありません。ローカルリカバリーでリソースの再マウントを許可してください。 |
124012 | ERROR | "$id" is mounted but on the wrong device (current mount device: $tmpdev, expected mount device: $dev) | 原因: ファイルシステムリソースに誤ったデバイスがマウントされています。 処置: 処置は必要ありません。ローカルリカバリーでリソースの再マウントを許可してください。 |
124015 | ERROR | LifeKeeper protected filesystem "$tag" ($id) is $percent% full ($blocksfree free blocks). | 原因: ディスク使用量が FILESYSFULLERROR の値(%)を超過しました。 処置: ファイルシステムからデータを削除または移行してください。 |
124016 | WARN | LifeKeeper protected filesystem "$tag" ($id) is $percent% full ($blocksfree free blocks). | 原因: ディスク使用量が FILESYSFULLWARNの値(%)を超過しました。 処置: ファイルシステムからデータを削除または移行してください。 |
124020 | FATAL | cannot find device information for filesystem $id | 原因: ファイルシステムリソースは基本ディスクデバイスを見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。リソース階層が有効であること、および必要なストレージキットがすべてインストールされていることを確認してください。 |
124029 | ERROR | Failed to find child resource. | 原因: ファイルシステムリソースは基本ディスクリソースを特定できませんでした。 処置: リソース階層が正しいことを確認してください。 |
124032 | FATAL | Script has hung. Exiting. | 原因: アンマウントする必要があるものの、マウントされているファイルシステムに開かれているファイルが複数のプロセスにありました。それらのプロセスの終了に時間がかかりすぎています。 処置: このエラーが続く場合は、マウントポイントを使用している可能性のあるすべてのソフトウェアを一時的に停止し、アンマウントできるようにしてください。ファイルシステムをそれでもアンマウントできない場合は、サポートに問い合わせてください。 |
124042 | ERROR | file system $fs failed unmount; will try again | 原因: アンマウントする必要があるものの、マウントされているファイルシステムに開かれているファイルが複数のプロセスにありました。場合によっては、それらのプロセスを消去するために、何度か操作を実行する必要があります。 処置: 処置は必要ありません。プロセスをそのまま続行してください。 |
124046 | ERROR | file system $fsname failed unmount | 原因: ファイルシステムをアンマウントできませんでした。 処置: このエラーが続く場合は、マウントポイントを使用している可能性のあるすべてのソフトウェアを一時的に停止し、アンマウントできるようにしてください。ファイルシステムをそれでもアンマウントできない場合は、サポートに問い合わせてください。 |
124049 | ERROR | Local recovery of resource has failed (err=$err) | 原因: ファイルシステムリソースに、ローカルでは修正できない問題があります。 処置: 処置は必要ありません。リソースを別のシステムにフェイルオーバーできるようにしてください。 |
124051 | WARN | getId failed, try count : $cnt/$try | 原因: ファイルシステムの quickCheck は、デバイスリソースの基になるデバイス名を取得できませんでした。 処置: 正しいデバイスがマウントされていることを確認してください。 |
124052 | ERROR | \"$id\" is mounted but filesystem is shutdown state. | 原因: xfs_info コマンドが失敗しました。 処置: ファイルシステムがマウントされていることを確認してください。 システムエラーログでエラーを確認してください。 |
124054 | ERROR | Failed to change mount option from \"$old_opts\" to \"$new_opts\" for migration | 原因: マウントオプションは移行されませんでした。 処置: エラーログを確認してください。 |
124103 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124104 | ERROR | $ERRMSG Required template machine name is null | 原因: canextend 操作で無効な引数が指定されました。 処置: 引数が正しいことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124105 | ERROR | $ERRMSG Required template resource tag name is null | 原因: canextend 操作で無効な引数が指定されました。 処置: 引数が正しいことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124106 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: リソースの基本ディスク情報を特定できませんでした。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124107 | ERROR | $ERRMSG Resource "$TemplateTagName" must have one and only one device resource dependency | 原因: リソースの階層にある基本デバイスが多すぎます。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124108 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: テンプレートシステムでリソースを見つけられません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124109 | ERROR | $ERRMSG Can not access canextend for scsi/$DeviceResType resources on machine "$TargetSysName" | 原因: ターゲットシステムに、必須のコンポーネントがいくつか見つかりません。 処置: ターゲットシステムに正しいキットがすべてインストールされ、ライセンスされていることを確認してください。 |
124110 | ERROR | $ERRMSG Either filesystem "$TemplateLKId" is not mounted on "$TemplateSysName" or filesystem is not shareable with "$TargetSysName" | 原因: ファイルシステムがテンプレートシステムのサービス内にないか、ターゲットシステムに拡張するための要件を満たしていません。 処置: リソースがテンプレートシステムのサービス内にあることを確認し、ファイルシステムを拡張するための要件に関する製品ドキュメントを参照してください。 |
124111 | ERROR | $ERRMSG File system type "${FSType}" is not supported by the kernel currently running on "${TargetSysName}" | 原因: カーネルのサポートがないため、ファイルシステムのタイプをターゲットシステムにマウントできません。 処置: ターゲットシステムにそのカーネルモジュールがすべてインストールされており、正常に設定されていることを確認してから、リソースを拡張してください。 |
124112 | ERROR | must specify machine name containing primary hierarchy | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124113 | ERROR | must specify primary ROOT tag | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124114 | ERROR | must specify primary mount point | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124115 | ERROR | must specify primary switchback type | 原因: creFShier 操作で無効な引数が指定されました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124118 | ERROR | dep_remove failure on machine \""$PRIMACH"" for parent "$PRITAG" and child "$DEVTAG." | 原因: 依存関係の作成後のクリーンアップに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124119 | ERROR | ins_remove failure on machine ""$PRIMACH"" for \"$PRITAG." | 原因: インスタンスの作成後のクリーンアップに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124121 | ERROR | ins_remove failure on machine ""$PRIMACH" | 原因: リソースの作成後のクリーンアップに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124122 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124123 | ERROR | $ERRMSG Required template machine name is null | 原因: depstoextend 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124124 | ERROR | $ERRMSG Required template resource tag name is null | 原因: depstoextend 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124125 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: リソースが基本ディスクリソースを特定できませんでした。 処置: 階層とすべての依存関係が正しいことを確認してから拡張してください。 |
124126 | ERROR | unextmgr failure on machine ""$PRIMACH" | 原因: 失敗したリソース拡張操作の後のクリーンアップに失敗しました。 処置: 残りのリソースを手動でクリーンアップし、隣接するログメッセージで詳細を確認してください。 |
124128 | ERROR | unextmgr failure on machine ""$PRIMACH"" for "$PRITAG." | 原因: 失敗したリソース拡張操作の後のクリーンアップに失敗しました。 処置: 残りのリソースを手動でクリーンアップし、隣接するログメッセージで詳細を確認してください。 |
124129 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: このメッセージは、通常の状態では表示されません。 処置: 追加のログメッセージを探して、詳細を確認してください。 |
124130 | ERROR | $ERRMSG Required template machine name is null | 原因: 拡張操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124131 | ERROR | $ERRMSG Required template resource tag name is null | 原因: 拡張操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124132 | ERROR | $ERRMSG Required target mount point is null | 原因: 拡張操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124133 | ERROR | $ERRMSG Unable to access template resource "$TemplateTagName" | 原因: 拡張中のタグがテンプレートシステムに存在しません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124134 | ERROR | $ERRMSG Detected conflict in expected tag name "$TargetTagName" on target machine. | 原因: 拡張するリソースと同じタグのリソースがすでにターゲットシステムにあります。 処置: 競合しているリソースのどちらか一方を別のタグで再作成してください。 |
124135 | ERROR | $ERRMSG Resource "$TemplateTagName" does not have required device resource dependency or unable to access this resource on template machine. | 原因: リソースまたは基本ディスクリソースがテンプレートシステムで見つかりません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
124136 | ERROR | $ERRMSG Resource "$TemplateTagName" must have one and only one device resource dependency | 原因: リソースは、テンプレートシステムの階層内に複数の基本デバイスを持っています。 処置: 拡張する前に階層が正しいことを確認し、ファイルシステムリソースが単一のディスクリソースにのみ依存していることを確認してください。 |
124137 | ERROR | $ERRMSG Can not access extend for scsi/$DeviceResType resources on machine "$TargetSysName" | 原因: 所定のストレージタイプのサポートに必要なファイルがターゲットシステムにありません。 処置: 必要なキットがターゲットシステムにインストールされ、ライセンスされていることを確認してください。 |
124138 | ERROR | $ERRMSG Unable to access target device resource "$DeviceTagName" on machine "$TargetSysName" | 原因: 必要な基本ディスクリソースがターゲットシステムに存在していません。 処置: 隣接するログメッセージで詳細を確認し、ターゲットシステムが拡張対象リソースをホストするために正常に設定されていることを確認してください。 |
124141 | ERROR | $ERRMSG Unable to find mount point "$TemplateLKId" mode on template machine | 原因: テンプレートシステムのマウントポイント詳細を特定できません。 処置: リソースが in service で、テンプレートシステムでアクセス可能であることを確認してから拡張してください。 |
124142 | ERROR | $ERRMSG Unable to create or access mount point "$TargetLKId" on target machine | 原因: ターゲットシステムでマウントポイントを作成できませんでした。 処置: マウントポイントの親ディレクトリが存在し、ターゲットシステムでアクセス可能であることを確認してください。 |
124143 | ERROR | $ERRMSG Two or more conflicting entries found in /etc/fstab on "$TargetSysName" | 原因: デバイスまたはマウントポイントはターゲットシステムで複数回マウントされているようです。 処置: マウントポイントがターゲットシステムにマウントされていないことを確認してから拡張してください。 |
124144 | ERROR | $ERRMSG Failed to create resource instance on "$TargetSysName" | 原因: ターゲットシステムでのリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。ターゲットサーバーでログを必ず確認してください。 |
124145 | ERROR | $ERRMSG Failed to set resource instance state for "$TargetTagName" on \"$TargetSysName" | 原因: ターゲットシステムでソースの状態を OSU に変更できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124146 | ERROR | must specify machine name containing primary hierarchy | 原因: filesyshier 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124147 | ERROR | must specify primary mount point | 原因: filesyshier 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124149 | ERROR | create file system hierarchy failure | 原因: リソースインスタンスを検索するプロセスが失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124150 | ERROR | create file system hierarchy failure | 原因: システムが /etc/mtab ファイルの読み取りに失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124152 | ERROR | create file system hierarchy failure | 原因: 基本ディスクリソースを見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124153 | ERROR | create file system hierarchy failure | 原因: ファイルシステムリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124154 | ERROR | create file system hierarchy failure | 原因: リソースの情報フィールドを更新できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124155 | ERROR | create file system hierarchy failure | 原因: スイッチバック戦略をリソースで設定できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124157 | ERROR | create file system hierarchy failure (conflicting entries in /etc/fstab\) | 原因: マウントポイントを /etc/fstab ファイルから削除できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124160 | ERROR | Unknown error in script filesysins, err=$err | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124161 | ERROR | create filesys instance – existid – failure | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124163 | ERROR | create filesys instance – ins_list – failure | 原因: 既存のリソースの確認に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124164 | ERROR | create filesys instance – newtag – failure | 原因: システムはリソースの推奨タグの生成に失敗しました。 処置: 通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124168 | ERROR | create filesys instance - ins_create - failure | 原因: ファイルシステムリソースを作成できませんした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124169 | ERROR | filesys instance - ins_setstate - failure | 原因:新しいファイルシステムリソースの状態を初期化できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124173 | ERROR | create filesys instance - dep_create - failure | 原因: 基本ディスクに対するリソースの依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124174 | ERROR | machine not specified | 原因: rmenu_mp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124175 | ERROR | mount point not specified | 原因: rmenu_mp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124177 | ERROR | unexpected multiple matches found | 原因: 1 つまたは複数のシステムが、複数回使用されたファイルシステムまたはマウントポイントを示しています。 処置: ファイルシステムデバイスとマウントポイントを確認し、ファイルシステムが 1 回だけマウントされていることを確認してください。追加のログメッセージを探して、詳細を確認してください。 |
124178 | ERROR | machine name not specified | 原因: rmenump 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124180 | ERROR | must specify filesystem type | 原因: validfstype 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124181 | ERROR | mount point not specified | 原因: validmp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124182 | ERROR | The mount point $MP is not an absolute path | 原因: 絶対パスではない(「/」で始まらない)マウントポイントが指定されました。 処置: 「/」で始まる絶対パスでマウントポイントを指定してください。 |
124183 | ERROR | $MP is already mounted on $MACH | 原因: 要求されたマウントポイントはシステムですでに使用中です。 処置: 使用中ではないマウントポイントを指定するか、操作を再試行する前にアンマウントしてください。 |
124184 | ERROR | The mount point $MP is already protected by LifeKeeper on $MACH | 原因: システムは、指定したマウントポイントをすでに保護しています。 処置: まだ保護されていない別のマウントポイントを選択してください。 |
124185 | ERROR | The mount point $MP is not a directory on $MACH | 原因: マウントポイントが通常のファイルなどの非ディレクトリを参照しています。 処置: ディレクトリを参照するマウントポイントを選択してください。 |
124186 | ERROR | The mount point directory $MP is not empty on $MACH | 原因: 指定したマウントポイントは空でないディレクトリを参照します。 処置: 空のマウントポイントを選択するか、指定したディレクトリの内容を削除してから操作を再試行してください。 |
124187 | ERROR | server name not specified | 原因: valuepmp 操作で無効な引数が指定されました。 処置: スクリプトが正常に読み出されたことを確認してください。通常の操作でこのエラーが発生した場合は、サポートに問い合わせてください。 |
124188 | ERROR | There are no mount points on server $MACH | 原因: サーバーにファイルシステムリソースのマウントポイントがありません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124194 | WARN | Please correct conflicting "/etc/fstab" entries on server $UNAME for: $FSDEV, $FSNAME | 原因: ファイルシステムリソースを削除したら、/etc/fstab の一部のエントリを手動でクリーンアップする必要があります。 処置: /etc/fstab ファイルを手動でクリーンアップしてください。 |
124195 | ERROR | getchildinfo found no $OKAPP child for $PTAG | 原因: システムは子リソースを階層で見つけられませんでした。 処置: 隣接するログメッセージで詳細を確認し、階層が正しいことを確認してから、操作を再試行してください。 |
124196 | ERROR | enablequotas - quotacheck may have failed for $FS_NAME | 原因: 割り当て操作に失敗しました。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124198 | ERROR | enablequotas - quotaon failed to turn on quotas for $FS_NAME, reason | 原因: 割り当て操作に失敗しました。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124200 | ERROR | The device node $dev was not found or did not appear in the udev create time limit of $delay seconds | 原因: デバイスノード(/dev/…)が undev によって作成されませんでした。これは、ストレージまたはストレージへのサーバー接続の問題を示している可能性があります。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124201 | WARN | Device $device not found. Will retry wait to see if it appears. | 原因: これは、udev がストレージのデバイスノードエントリを作成している間、通常の条件下で発生する可能性もあります。このメッセージは繰り返し表示されないはずです。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124202 | ERROR | Command "$commandwithargs" failed. Retrying …. | 原因: 指定されたコマンドは失敗しましたが、一時的なものである可能性もあります。この障害は、通常の操作で発生しますが、継続はしないはずです。 処置: このメッセージが何度も表示される場合は、隣接するログメッセージで詳細を確認してください。 |
124204 | WARN | cannot make file system $FSNAME mount point | 原因: マウントポイントディレクトリを作成できませんでした。 処置: マウントポイントを作成できることを確認してください。これは、ファイルシステム権限やマウントオプションなどによる可能性があります。 |
124207 | ERROR | "fsck"ing file system $FSNAME failed, trying alternative superblock | 原因: このメッセージは、通常のファイルシステムチェックに失敗したことを示します。このメッセージは、ext2 ファイルシステムまたは代替スーパーブロックロケーションが使用されているファイルシステムの場合は問題ないと思われます。 処置: 隣接するログメッセージで詳細を確認してください。 |
124209 | ERROR | "fsck"ing file system $FSNAME with alternative superblock failed | 原因: これは、代替スーパーブロックロケーションで ext2 ファイルシステム (または代替スーパーブロックロケーションが使用されている他のファイルシステム) の確認が失敗したことを示します。 処置: 隣接するログメッセージで詳細を確認し、実行方法の手順を確かめてください。 |
124210 | WARN | POSSIBLE FILESYSTEM CORRUPTION ON $FSNAME ($FPNAME) | 原因: ミラーソースと同期していないファイルシステムが in service になったか、フェイルオーバーされました。 処置: 隣接するログメッセージで詳細を確認し、ファイルシステムを安全に in service にする方法を製品ドキュメントで調べてください。 |
124211 | ERROR | Reason for fsck failure ($retval): $ret | 原因: このログメッセージは一連のメッセージの一部で、fsck プロセスからの実際の終了コードを提供します。 処置: 隣接するログメッセージで詳細を確認し、実行方法の手順を確かめてください。 |
124212 | ERROR | "fsck" of file system $FSNAME failed | 原因: ファイルシステムの確認に失敗しました。これは通常、ファイルシステムが破損したことによるものです。 処置: 隣接するログメッセージで詳細を確認してください。製品ドキュメントを参照し、可能性のあるファイルシステムの破損を処理する方法を調べてください。 |
124213 | WARN | POSSIBLE FILESYSTEM CORRUPTION ON $FSNAME ($FPNAME) | 原因: システムまたはユーザが、破損している可能性のあるファイルシステムを in service にしようとしました。これは、ミラーサイトと同期していないときにファイルシステムが切り替えられたか、フェイルオーバーされた場合に起こることがあります。 処置: 隣接するログメッセージで詳細を確認し、リソースを安全に in service にする方法を製品ドキュメントで調べてください。 |
124214 | ERROR | Reason for fsck failure ($retval) | 原因: このメッセージは、ファイルシステムチェックの障害に関する前のログメッセージに続いて表示されるもので、fsck プロセスのプロセス終了コードを提供します。 処置: 隣接するログメッセージで詳細を確認してください。 |
124218 | ERROR | File system $FSNAME was found to be already | 原因: このメッセージは、一連のメッセージの一部です。 処置: 隣接するログメッセージで詳細を確認してください。 |
124219 | ERROR | mounted after initial mount attempt failed. | 原因: このメッセージは、一連のメッセージの一部です。通常の状態では表示されないはずですが、リソースが in service の場合は致命的なエラーの可能性もあります。 処置: lifekeeper ログおよび /var/log/messages の隣接するログメッセージで詳細を確認してください。 |
124220 | ERROR | File system $FSNAME failed to mount. | 原因: ファイルシステムをマウントできませんでした。 処置: 隣接するログメッセージで詳細を確認してください。 |
124221 | WARN | Protected Filesystem $ID is full | 原因: ファイルシステムの空き容量がありません。 処置: 使用していないデータをファイルシステムから削除するか、より大きなファイルシステムに移行してください。 |
124222 | WARN | Dependent Applications may be affected <> | 原因: これは、あるリソースに対する操作が、リソースの階層に基づいて別のリソースにも実行される可能性が高いことを示します。 処置: 示されているリソースが影響を受けても許容できることを確認してから操作を続行してください。 |
124223 | ERROR | Put "$t" Out-Of-Service Failed By Signal | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124227 | ERROR | Put "$i" Out-Of-Service Failed | 原因: 操作に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124230 | ERROR | Put "$t" In-Service Failed By Signal | 原因: このメッセージは、通常の状態では表示されません。 処置: 隣接するログメッセージで詳細を確認してください。 |
124231 | ERROR | Put "$t" In-Service Failed | 原因: 操作に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124234 | ERROR | Put "$t" In-Service Failed | 原因: 操作に失敗しました。 処置: 隣接するログメッセージで詳細を確認してください。 |
124239 | WARN | Invalid subdirectory cache of $id still exists. This may prevent $id to unmount, causing the resource remove to fail. This is most likely caused by a known issue when mounting a subdirectory of an NFSv3 export. Please see the “LifeKeeper Core – Known Issues / Restrictions” section in the LifeKeeper for Linux Technical Documentation. | 原因: 無効なサブディレクトリーキャッシュは、NFSv3 エクスポートのサブディレクトリーのマウントが原因である可能性が最も高いです。 処置: NFSv4 を使用し、サブディレクトリーをマウントしないでください。 |
125102 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125103 | ERROR | `printf ‘%s is not shareable with any machine.’ $DEV` | 原因: デバイスは他のシステムと共有されていないようです。 処置: デバイスがクラスター内のすべてのサーバーからアクセス可能であることを確認してください。すべての関連ストレージドライバおよびソフトウェアが正常にインストールおよび設定されていることを確認してください。 |
125104 | ERROR | `printf ‘Failed to create disk hierarchy for "%s" on "%s"’ $PRIMACH $DEV` | 原因: 物理ディスクを保護するリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
125107 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125114 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125120 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125123 | ERROR | `printf ‘Cannot access depstoextend script "%s" on server "%s"’ $depstoextend $TargetSysName` | 原因: {server} でスクリプト{DEPSTOEXTEND}を見つけられなかったので、LifeKeeper はリソース階層に対して拡張前のチェックを実行できませんでした。 処置: LifeKeeper の設定を確認してください。 |
125126 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $ChildTag $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125129 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTagName $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125155 | ERROR | SCSI $DEV failed to lock. | 原因: SCSI デバイスをロックする際に問題が発生しました。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
125164 | ERROR | SCSI $INFO failed to unlock. | 原因: SCSI デバイスをロック解除する際に問題が発生しました。 処置: 隣接するログメッセージで詳細を確認し、レポートされている問題を解決してください。 |
125181 | ERROR | `printf ‘Template resource "%s" on server "%s" does not exist’ $TemplateTag $TemplateSysName` | 原因: LifeKeeper は、{server} でリソース {tag} を見つけられませんでした。 |
125194 | ERROR | Failed to check disk.(tag=\"$opt_t\" | 原因: 指定されたタグのデバイスが正しく応答しませんでした。 処置: ディスクが正しく応答していることを確認します。 |
125197 | ERROR | usage error: $cmd [-q|-v] [-r|-w] [-a|-d <disk device>] | 原因: $cmd に誤ったパラメーターが渡されました。 処置: コマンドラインに正しいパラメーターがリストにあることを確認してください。ほとんどの場合、ディスクデバイスが見つからないため、コマンドから除外されます。 |
125200 | ERROR | getId command does not exist. id=$id, app=$app, typ=$typ | 原因: getID コマンドが /opt/LifeKeeper/lkadm/subsys/<app>/<typ>/bin に見つかりませんでした。 <app> and <typ> はエラー メッセージに含まれています。 処置: getId が正しくインストールされ、実行権限があることを確認してください。 |
125201 | ERROR | The block device given by the -d option is empty. | 原因: -d 引数には、ブロックデバイスノードが必要です。 処置: 有効なブロックデバイスノードを使用してコマンドを再試行してください。 |
125204 | ERROR | Could not set to RO/RW: $err_disks | 原因: blockdev(8) コマンドは、読み取り専用または読み取り書き込みの設定に失敗しました。 処置: 追加情報がシステムエラーログに記録される場合があります。 |
126105 | ERROR | script not specified - $PTH is a directory | 原因: 指定したスクリプトパスはディレクトリです。 処置: スクリプトのパスを修正してください。 |
126110 | ERROR | script $PTH does not exist | 原因: 指定したスクリプトパスは存在しません。 処置: スクリプトのパスを修正してください。 |
126115 | ERROR | script $PTH is a zero length file | 原因: 指定したスクリプトは空のファイルです。 処置: スクリプトのファイルパスを修正し、スクリプトの内容を確認してください。 |
126117 | ERROR | script $PTH is not executable | 原因: 指定したスクリプトは実行可能ではありません。 処置: スクリプトのファイルパスを修正し、スクリプトファイルの内容を確認したら、正常な実行権限があることを確認してください。 |
126125 | ERROR | required template machine name is null | 原因: 入力テンプレートマシン名が null です。 処置: 入力テンプレートマシン名を修正してください。 |
126130 | ERROR | required template resource tag name is null | 原因: 入力テンプレートリソース {tag} が null です。 処置: 入力テンプレートリソースタグ名を修正してください。 |
126135 | ERROR | Unable to generate a new tag | 原因:拡張の際に、「newtag」スクリプトを使用してターゲットノードでテンプレートタグ名と同じ新規タグを生成できませんでした。タグ名はすでに存在しています。 処置: 同じノードで重複するタグ名を避け、ログで詳細を確認してください。 |
126140 | ERROR | Unable to generate a new tag | 原因: 拡張の際に、「newtag」スクリプトを使用してターゲットノードで入力ターゲットタグ名として新規タグを生成できませんでした。タグ名はすでに存在しています。 処置: 同じノードで重複するタグ名を避け、ログで詳細を確認してください。 |
126150 | ERROR | unable to remote copy template \"$_lscript\" script file | 原因: テンプレートスクリプトファイルのリモートコピーに失敗しました。原因としては、テンプレートノードにテンプレートスクリプトファイルがない、またはスクリプトファイルを使用できない、あるいは 「lcdrcp」プロセスで何らかのトランザクション障害が発生したことなどが考えられます。 処置: テンプレートスクリプトの有無/使用可能性を確認し、テンプレートノードへの接続を確かめてください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126155 | ERROR | failed to create resource instance on \"$TargetSysName\ | 原因: 「ins_create」によるリソースインスタンスの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126160 | ERROR | failed to set resource instance state for \"$TargetTagName\" on \"$TargetSysName\ | 原因: GenApp リソース拡張の際に、「ins_setstate」によるリソースインスタンスの状態の設定に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126170 | ERROR | getlocks failure | 原因:リソース階層の作成時に管理ロックの取得に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126175 | ERROR | instance create failed | 原因: 「appins」による GenApp インスタンスの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126180 | ERROR | unable to set state to OSU | 原因: GenApp リソース作成の際に、「ins_setstate」によるリソースインスタンスの状態の設定に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126190 | ERROR | resource restore has failed | 原因: GenApp リソースのリストアに失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126200 | ERROR | create application hierarchy rlslocks failure | 原因: GenApp リソースの作成後にロックの解除に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126210 | ERROR | copy $ltype script $lscript failure | 原因: リソース作成時に、ユーザ提供のスクリプトを適切な GenApp ディレクトリにコピーできませんでした。 処置: ユーザ提供のスクリプトの有無/使用可能性に加え、GenApp ディレクトリを確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126215 | ERROR | no $ltype script specified | 原因: GenApp リソース作成時にユーザ定義スクリプトが見つかりません。 処置: 入力アクションスクリプトを確認し、リソース作成を再実行してください。 |
126220 | ERROR | no machine name specified | 原因:GenApp リソース作成時に指定のマシン名が見つかりません。マシン名の入力内容が見つからないため、指定したユーザスクリプトのコピーに失敗しました。 処置: マシン名の入力内容を確認し、リソース作成を再実行してください。 |
126225 | ERROR | no resource tag specified | 原因:リソース作成時に指定のタグ名が見つかりません。 処置: ソースタグ名の入力内容を確認し、リソース作成を再実行してください。 |
126230 | ERROR | $ERRMSG Script was terminated for unknown reason | 原因: 不明な理由で GenApp リソースの拡張に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126235 | ERROR | $ERRMSG Required template machine name is null | 原因: GenApp リソース拡張時にテンプレートマシン名の入力が見つかりません。 処置: テンプレートマシン名の入力内容を確認し、リソース拡張を再実行してください。 |
126240 | ERROR | $ERRMSG Required template resource tag name is null | 原因: GenApp リソース拡張時にテンプレートリソースタグ名の入力が見つかりません。 処置: テンプレートリソースタグ名の入力内容を確認し、リソース拡張を再実行してください。 |
126245 | ERROR | $ERRMSG Can not access extend for $AppType/$ResType resources on machine \"$TargetSysName\ | 原因: ターゲットノードでの GenApp リソース拡張の際に、「extend」スクリプトを見つけられませんでした。 処置: 「extend」スクリプトの有無/使用可能性を確認し、GenApp リソース拡張を再実行してください。 |
126250 | ERROR | create application failure - ins_list failed | 原因: GenApp リソース作成で「ins_list」を呼び出している際に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126255 | ERROR | create application failure - unable to generate a new tag | 原因: GenApp リソース作成で新規タグの生成に失敗しました。 処置: 同じノードで重複するタグ名の使用を避けてください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126270 | ERROR | create application failure - ins_create failed | 原因: 「ins_create」による GenApp インスタンスの作成に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126275 | ERROR | create application failure - copy_actions failed | 原因: 「copy_actions」によるユーザ指定テンプレートスクリプトファイルのコピーに失敗しました。 処置: テンプレートスクリプトの有無/使用可能性を確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126290 | ERROR | Unable to obtain tag for resource with id $ID | 原因:リカバリー時に入力 ID による GenApp リソースタグ名のフェッチに失敗しました。 処置: 入力 ID が正しいこと、および LCD の GenApp リソースの有無/使用可能性を確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126300 | ERROR | generic application recover script for $TAG was not found or was not executable | 原因: リカバリー時に GenApp リソースのユーザ定義スクリプトの特定に失敗しました。 処置: ユーザ定義スクリプトの有無/使用可能性を確認し、GenApp リカバリープロセスを再実行してください。 |
126310 | ERROR | -t flag not specified | 原因: GenApp リソースリストア時にリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソースリストアを再実行してください。 |
126315 | ERROR | -i flag not specified | 原因: GenApp リソースリストア時にリソース内部 ID の入力が見つかりません。 処置: リソース内部 ID の入力内容を確認し、リソースリストアを再実行してください。 |
126327 | ERROR | END timeout restore of \"$TAG\" (forcibly terminating | 原因: 指定されたタイムアウト値内に restore が完了しませんでした。 処置: タイムアウト値を大きくするか、restore がタイムアウトを超えた理由を解決してください。 |
126335 | ERROR | restore script \"$LCDAS/$APP_RESTOREDIR/$TAG\" was not found or is not executable | 原因: リストア時に GenApp リソースのユーザ定義スクリプトの特定に失敗しました。 処置: ユーザ定義スクリプトの有無/使用可能性を確認し、GenApp リストアプロセスを再実行してください。 |
126340 | ERROR | -t flag not specified | 原因: GenApp リソース削除時にリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソース削除を再実行してください。 |
126345 | ERROR | -i flag not specified | 原因: GenApp リソース削除時にリソース内部 ID の入力が見つかりません。 処置: リソース内部 ID の入力内容を確認し、リソース削除を再実行してください。 |
126357 | ERROR | END timeout remove of \"$TAG\" (forcibly terminating | 原因: 指定されたタイムアウト値内に remove が完了しませんでした。 処置: タイムアウト値を大きくするか、 remove がタイムアウトを超えた理由を解決してください。 |
126365 | ERROR | remove script \"$LCDAS/$APP_REMOVEDIR/$TAG\" was not found or was not executable | 原因: 削除時に GenApp リソースのユーザ定義スクリプトの特定に失敗しました。 処置: ユーザ定義スクリプトの有無/使用可能性を確認し、GenApp 削除プロセスを再実行してください。 |
126375 | ERROR | Script has hung checking \"$tag\". Forcibly terminating. | 原因: 待機時間がユーザ定義のタイムアウトを超えたので、タグ名 {tag} の GenApp リソースの「quickCheck」スクリプトが強制的に終了しました。 処置: GenApp リソースのパフォーマンスを確認し、quickChecking を再起動してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126380 | ERROR | Usage error: no tag specified | 原因: GenApp リソース quickCheck 時にリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソース quickCheck を再試行してください。 |
126385 | ERROR | Internal error: ins_list failed on $tag. | 原因: quickCheck プロセスで、「ins_list」による入力タグ名別の GenApp リソース情報のフェッチに失敗しました。 処置: 入力タグ名を修正し、quickCheck プロセスを再実行してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126390 | FATAL | Failed to fork process to execute $userscript: $! | 原因: GenApp リソースの「quickCheck」プロセスで、ユーザ定義の「quickCheck」スクリプトを実行するためにプロセスを分岐させられませんでした。 処置: ユーザ定義の「quickCheck」スクリプトの有無/使用可能性を確認し、「quickCheck」プロセスを再実行してください。 |
126391 | ERROR | quickCheck has failed for \"$tag\". Starting recovery. | 原因: タグ名 {tag} の GenApp リソースが失敗することが、ユーザ定義の健全性監視スクリプトにより判定されました。「quickCheck」およびリカバリープロセスが開始されます。 処置: ローカルリカバリーが完了したら、GenApp リソースのパフォーマンスを確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
126392 | WARN | ${convtag}_TIMEOUT: This parameter is old. This parameter will not be supported soon. | 原因: <tag>_TIMEOUT を使用する gen/app リソースのタイムアウトが使用されています。 処置: gen/app のクイックチェックスクリプトのタイムアウトを指定するには、 <tag>_QUICKCHECK_TIMEOUT の形式で指定してください。 |
126400 | ERROR | -t flag not specified | 原因:GenApp リソース削除プロセスでリソースタグ名の入力が見つかりません。 処置: リソースタグ名の入力内容を確認し、リソース削除プロセスを再実行してください。 |
126405 | ERROR | -i flag not specified | 原因: GenApp リソース削除プロセスでリソース内部 ID の入力が見つかりません。 処置: リソース内部 ID の入力内容を確認し、リソース削除プロセスを再実行してください。 |
126478 | ERROR | Failed to create tag \’$new_leaf\’. | 原因: 「creapphier」ユーティリティは、指定されたタグ {new_leaf} を作成できませんでした。 処置: /var/log/lifekeeper.log で「creapphier」からの追加メッセージを確認してください。 |
126479 | ERROR | Failed to extend tag \’$new_leaf\’. | 処置: /var/log/lifekeeper.log で拡張マネージャーからの追加エラーを確認してください。 |
126481 | ERROR | Failed to create dependency on \’$sys\’ for \’$new_leaf\’ to \’$hier{$leaf}{$sys}{‘Tag’}\’. | 処置: /var/log/lifekeeper.log で「dep_create」関数のエラーを確認してください。 |
126484 | ERROR | Tag \’$root_tag\’ is not in-service. | 原因: 指定されたタグ{root_tag} は、クラスター内のどのノードでも In Service になっていません。 処置: 指定されたタグ{root_tag} をクラスター内の任意のノードで In Service にし、「create_terminal_leaf」を再実行してください。 |
126485 | ERROR | Tag \’$root_tag_1\’ was not found, select the root tag for a hierarchy to add a terminal leaf resource. | 原因: 「create_terminal_leaf」に渡された最初のタグ {root_tag_1} が、ユーティリティが実行されたシステムで見つかりませんでした。 処置: リソースがクラスター内のノードで In-service であり、すべてのノードへリソースが完全に拡張されていることを確認してください。 |
126486 | ERROR | Unable to create leaf tag from \’$tag\’. | 原因: 一意の端末リーフタグを作成できませんでした。100回試行した後、一意の端末リーフタグを作成できませんでした。 処置: 複数のリーフタグと、問題を暗示している可能性のある /var/log/lifekeeper.log のエラーを確認してください。 |
126487 | ERROR | Tag \’$root_tag_2\’ was not found, select the root tag for a hierarchy to add a terminal leaf resource. | 原因: 「create_terminal_leaf」に渡された2番目のタグ {root_tag_2} が、ユーティリティが実行されたシステムで見つかりませんでした。 処置: リソースがクラスター内のノードで In-service であり、すべてのノードへリソースが完全に拡張されていることを確認してください。 |
126488 | ERROR | Tag \’$root_tag_1’ is not extended to 3 or more systems. | 原因: 指定されたタグ {root_tag_1} は、3つ以上のノードに拡張されていません。 処置: 指定したタグ {root_tag_1} を最低でも3つのノードに拡張し、「create_terminal_leaf」を再度実行してください。 |
126489 | ERROR | $cmd does not support SDRS resources. | 原因: マルチサイト構成が検知されました。 処置: ありません |
126492 | ERROR | Remove resource $tag failed. | 原因: 障害発生後の create_terminal_leaf ユーティリティによるクリーンアップで、リソースが正しく削除されませんでした。 処置: リストされているタグがまだ存在する場合は削除してください。 |
126494 | ERROR | Delete dependency failed on \’$sys\’ for \’$tag\’ to \’$parent\’. | 原因: 障害発生後の create_terminal_leaf ユーティリティのクリーンアップで、依存関係が適切に削除されませんでした。 処置: 依存関係がまだ存在する場合は削除してください。 |
126495 | ERROR | New tag \’$new_tag\’ was modified during create, expected \’$new_leaf\’. | 原因: タグ名に矛盾がありました。 処置: 競合のないタグ名を選択してください。 |
126496 | ERROR | Tag \’$root_tag_1\’ is not in-service. | 原因: リストされているルートタグは、ターミナルリーフを作成するために in-service である必要があります。 処置: ルートタグを in-service にして、操作を再試行してください。 |
126497 | ERROR | Tag \’$root_tag_2\’ is not in-service. | 原因: リストされているルートタグは、ターミナルリーフを作成するために in-service である必要があります。 処置: ルートタグを in-service にして、操作を再試行してください。 |
126498 | ERROR | Tag \’$root_tag_1\’ and \’$root_tag_2’ are not extended to same systems. | 原因: ターミナルリーフリソースを作成するために指定された両方の階層が同じシステム上に存在する必要があります。 処置: 同じシステム上で階層を作成および拡張してください。 |
128005 | ERROR | END failed %s of "%s" on server "%s" due to a "%s" signal | 原因: オペレーティングシステムの信号 {signal} によって、{server} 上の {resource} の quickCheck が失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128008 | ERROR | Usage: quickCheck -t <tag name> -i <id> | 原因: dmmp デバイスの quickCheck コマンドに不正な引数が指定されたため、コマンドが実行できませんでした。 処置: すべてのソフトウェアコンポーネントの正しいバージョンが適切にインストールされていることを確認してください。次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (quickCheck 対象の dmmp デバイスリソースを特定する ID) |
128010 | ERROR | quickCheck for "%s" failed checks of underlying paths, initiate recovery. retry count=%s. | 原因: dmmp キットが {count} 回の試行後、デバイスの quickCheck に失敗しました。保護されている dmmp リソースのリカバリーが実行されます。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128021 | ERROR | unable to find device for uuid "%s". | 原因: restore 操作時に一意の ID を使用してデバイスを見つけられませんでした。 処置: リソースが正しく設定されていることを確認してください。リストア対象の dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128025 | ERROR | Device "%s" failed to unlock. | 原因: restore 操作時に正常に動作していない {device} が検出され、ロック解除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128026 | ERROR | Device "%s" failed to lock. | 原因: リストア時に {device} をロックできませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128031 | ERROR | unable to find device for uuid "%s". | 原因: remove 操作時に一意の ID を使用してデバイスを見つけられませんでした。 処置: リソースが正しく設定されていることを確認してください。削除対象の dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128034 | ERROR | Device "%s" failed to unlock. | 原因: 削除時に {device} をロック解除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128036 | ERROR | unable to load existing information for device with uuid "%s". | 原因: 一意の ID を使用してデバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128037 | ERROR | unable to load existing information for device "%s". | 原因: 名前を使用してデバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス名でコマンドを再実行してください。 |
128038 | ERROR | unable to load existing information for device, no dev or uuid defined. | 原因: 一意のデバイス ID もデバイス名も指定されていないため、デバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス ID またはデバイス名でコマンドを再実行してください。 |
128041 | ERROR | unable to load existing information for device with uuid "%s". | 原因: 一意の ID を使用してデバイス情報を読み込めませんでした。 処置: リソースが正しく設定されていることを確認してください。dmmp デバイスリソースを特定する正しいデバイス ID でコマンドを再実行してください。 |
128057 | ERROR | All paths are failed on "%s". | 原因: LifeKeeper は、保護対象の dmmp デバイスへのすべてのパスが障害状態にあることを検出しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128058 | ERROR | could not determine registrations for "%s"! All paths failed. | 原因: LifeKeeper は、保護対象の dmmp {device} の登録を特定できませんでした。dmmp {device} へのすべてのパスが障害状態にあります。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128059 | WARN | path "%s" no longer configured for "%s", remove from path list. | 原因:LifeKeeper が検出した保護対象の {device} への {path} は、現在は有効ではなく、パスリストから削除されます。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128060 | WARN | registration failed on path "%s" for "%s". | 原因: LifeKeeper は、保護対象の dmmp {device} の {path} の登録を特定できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128062 | ERROR | all paths failed for "%s". | 原因: LifeKeeper は、保護対象の dmmp {device} の有効なパスを確認できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128072 | ERROR | The daemon "%s" does not appear to be running and could not be restarted. Path failures may not be correctly handled without this daemon. | 原因: LifeKeeper は dmmp デーモンが実行されていることを確認できなかったため、デーモンを再起動できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128078 | ERROR | "%s" resource type is not installed on "%s". | 原因: dmmp デバイスをサポートするための Device Mapper Multipath Recovery Kit がシステムにインストールされていません。 処置: steeleye-lkDMMP Device Mapper Multipath Recovery Kit rpm をシステムにインストールしてください。 |
128083 | ERROR | This script must be executed on "%s". | 原因: dmmp デバイスリソースを作成するための devicehier スクリプトの引数に不正なシステム名が指定されました。 処置: クラスターノードとコミュニケーションパスが適切に設定されていることを確認してください。devicehier スクリプトに正しいシステム名を指定してください。この名前は、コマンドを実行するシステムの名前に一致する必要があります。 |
128084 | ERROR | The device %s is not active. | 原因: リソース作成時に LifeKeeper は、指定された {device} をシステム上の有効なデバイスとして見つけられませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (作成する dmmp デバイスリソースを特定する ID) |
128086 | ERROR | Failed to create "%s" hierarchy. | 原因: LifeKeeper は、{device} のためのリソース階層を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128088 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{server} で {tagname} を使用してリソースを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128090 | ERROR | Failed to create dependency "%s"-"%s" on system "%s". | 原因: LifeKeeper は、{system} で依存関係 {resource tag name} – {resource tag name} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128091 | ERROR | Error creating resource "%s" on server "%s" | 原因: LifeKeeper は、{system} で {resource} を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128101 | ERROR | "%s" constructor requires a valid argument. | 原因: LifeKeeper は、dmmp リソースのオブジェクトを作成できませんでした。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (dmmp デバイスリソースを特定する ID) |
128102 | ERROR | Invalid tag "%s". | 原因: 指定されたタグ名のリソースインスタンスが見つかりませんでした。 処置: リソースが正しく設定されていることを確認してください。次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (dmmp デバイスリソースを特定する ID) |
128111 | ERROR | Failed to get registrations for "%s": %s. Verify the storage supports persistent reservations. | 原因: LifeKeeper は {device} の登録の取得に失敗し、メッセージ「bad field in Persistent reservation in cdb」を出力しました。 処置: このストレージでパーシステントリザベーションがサポートされているか確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128112 | ERROR | Failed to get registrations for "%s": %s. Verify the storage supports persistent reservations. | 原因: LifeKeeper は {device} の登録の取得に失敗し、メッセージ「illegal request」を出力しました。 処置: このストレージでパーシステントリザベーションがサポートされているか確認してください。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128136 | ERROR | A previous quickCheck with PID "%s" running for device "%s" has been terminated. | 原因: LifeKeeper は、dmmp リソースの restore 操作時に前の quickCheck がまだ実行中であることを検出しました。LifeKeeper は quickCheck を終了しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128137 | ERROR | SCSI reservation conflict on %s during LifeKeeper resource initialization. Manual intervention required. | 原因: LifeKeeper は、dmmp リソースの restore 操作時に {device} で SCSI リザベーションコンフリクトを検出しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。手動による介入および {device} でのリザベーションコンフリクトの解消が必要です。 |
128138 | ERROR | unable to clear registrations on %s. | 原因: LifeKeeper は、{device} 上のすべての登録を消去できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128140 | WARN | registration failed on path %s for %s. | 原因: LifeKeeper は、{device} の {path} の登録を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128143 | ERROR | reserve failed (%d) on %s. | 原因: LifeKeeper は、{device} 上の {resource} の登録を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128145 | ERROR | The server ID "%s" returned by "%s" is not valid. | 原因: LifeKeeperは有効なホスト {ID} を生成できませんでした。 処置: デバイスを登録するための ID は、クラスター内のサーバーを一意に特定する 1 ~ 12 桁の 16 進数で構成されます。隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128146 | ERROR | device failure on %s. SYSTEM HALTED. | 原因:LifeKeeper は {device} で障害を検出しました。サーバーを再起動します。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128148 | ERROR | device failure on %s. SYSTEM HALTED DISABLED. | 原因: LifeKeeper は {device} で障害を検出しました。LifeKeeper の設定によって、再起動はスキップされました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。「SCSIHALT」設定を有効にして、いかなるデバイス障害が検出されたときも再起動が行われるようにしてください。 |
128149 | ERROR | device failure or SCSI Error on %s. SENDEVENT DISABLED. | 原因: LifeKeeper は {device} で障害を検出しました。LifeKeeper の設定によって、イベント生成はスキップされました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。「SCSIEVENT」設定を有効にして、いかなるデバイス障害が検出されたときも sendevent を使用できるようにしてください。 |
128150 | ERROR | %s does not have EXCLUSIVE access to %s, halt system. | 原因: LifeKeeper は {server} の {device} でリザベーションコンフリクトを検出しました。サーバーを再起動します。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。 |
128151 | ERROR | %s does not have EXCLUSIVE access to %s, halt system DISABLED. | 原因: LifeKeeper は {server} の {device} でリザベーションコンフリクトを検出しました。LifeKeeper の設定によって、再起動はスキップされました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。「RESERVATIONCONFLICT」設定を有効にして、いかなるリザベーションコンフリクトが検出されたときも再起動が行われるようにしてください。 |
128154 | WARN | unable to flush buffers on %s. | 原因: LifeKeeper は、dmmp リソースの削除時に {device} のバッファを消去できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128157 | WARN | %s utility not found, limited healthcheck for %s. | 原因: LifeKeeper は、{device} の健全性チェックを行う「dd」ユーティリティを見つけられませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128160 | ERROR | %s failed to read %s. | 原因: LifeKeeper は、{utility} の使用中に {device} のディスク I/O テストに失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128163 | ERROR | Registration ID "%s" for "%s" is not valid. | 原因: LifeKeeper は {device} の有効な登録 {ID} の生成に失敗しました。 処置: デバイスを登録するための ID は、デバイスへのパスに由来する 4 桁の 16 進数で構成されます。隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してから操作を再試行する必要があります。 |
128170 | ERROR | Usage: canextend <Template system name> <Template tag name> | |
128500 | ERROR | Usage error | 原因: dmmp デバイスの restore コマンドに不正な引数が指定されたため、コマンドが実行できませんでした。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <Resource Tag> および -i <Resource ID> (リストアする dmmp デバイスリソースを特定する ID) |
128504 | ERROR | "%s" resource type is not installed on "%s". | 原因: dmmp デバイスをサポートするための Device Mapper Multipath Recovery Kit がシステムにインストールされていません。 処置: steeleye-lkDMMP Device Mapper Multipath Recovery Kit rpm をシステムにインストールしてください。 |
128506 | ERROR | Usage error | 原因: dmmp デバイスの devShared コマンドに不正な引数が指定されたため、コマンドが実行できませんでした。 処置: 次の正しい引数を指定してコマンドを再実行してください。<Template Resource System Name> および <Template Resource Tag> (作成する dmmp デバイスリソースを特定するタグ) |
128507 | FATAL | This script must be executed on "%s". | 原因: dmmp デバイスリソースを作成するための devicehier スクリプトの引数に不正なシステム名が指定されました。 処置: devicehier スクリプトに正しいシステム名を指定してください。この名前は、コマンドを実行するシステムの名前に一致する必要があります。 |
128511 | ERROR | Failed to get the ID for the device "%s". Hierarchy create failed. | 原因: dmmp デバイスリソースを作成するための devicehier スクリプトは、指定されたデバイスの SCSI ID を特定できませんでした。 処置: 指定されたデバイスパスが存在すること、およびそのパスがサポート対象の SCSI ストレージアレイのパスであることを確認してください。 |
128512 | ERROR | Failed to get the disk ID for the device "%s". Hierarchy create failed. | 原因: dmmp ディスクリソースを作成するための devicehier スクリプトは、指定されたディスクの SCSI ID を特定できませんでした。 処置: 指定されたデバイスパスが存在すること、およびそのパスがサポート対象の SCSI ストレージアレイのパスであることを確認してください。 |
128513 | ERROR | Failed to create the underlying resource for device "%s". Hierarchy create failed. | 原因: ベースとなる dmmp ディスクリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128515 | ERROR | Error creating resource "%s" on server "%s" | 原因: dmmp デバイスリソースの作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128517 | ERROR | Failed to create dependency "%s"-"%s" on system "%s". | 原因: dmmp デバイスリソースと dmmp ディスクリソースとの間の親 / 子の依存関係の作成に失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128519 | ERROR | Error creating resource "%s" on server "%s" | 原因: 新しく作成した dmmp デバイスリソースを in service にする操作が失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認してください。レポートされているエラーを修正してから操作を再試行する必要があります。 |
128521 | ERROR | Either TEMPLATESYS or TEMPLATETAG argument missing | 原因: dmmp デバイスリソースの extend コマンドに不正な引数が指定されました。 処置:テンプレートシステムおよびタグの正しい名前を指定して dmmp デバイスリソースの extend を再実行してください。 |
128540 | ERROR | Usage error | 原因: dmmp デバイスの SCSI ID を取得する getId コマンドに不正な引数が指定されました。 処置: 次の正しい引数を指定してコマンドを再実行してください。-i <device path> または -b <device ID>。 |
128541 | ERROR | Usage error | 原因: dmmp デバイスリソースを削除するコマンドに不正な引数が指定されました。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <dmmp device resource tag>。 |
128543 | ERROR | device node "$dev" does not exist. | 原因: dmmp デバイスリソースをリストアするために必要なデバイスノードが存在しません。リストア時に udev デバイスの作成に割り当てられている待機時間を越えました。 処置: udev がデバイスを作成した後に dmmp デバイスリソースの restore を再実行してください。 |
128544 | ERROR | Usage error | 原因: dmmp デバイスリソースを out of service にする remove コマンドに不正な引数が指定されました。 処置: 次の正しい引数を指定してコマンドを再実行してください。-t <dmmp device resource tag>。 |
128550 | ERROR | Failed to get path information.(tag=\"$opt_t\" | 原因: OSUquickCheck が、DMMP デバイスと一致しないタグで呼び出されました。 処置:正しいタグが使用されていることを確認してください。 |
128551 | ERROR | Failed to get the status of path.(tag=\"$opt_t\" | 原因:OSUquickCheck は、渡されたタグの DMMP パスの 'mode' を取得できませんでした。 処置: DMMP デバイスが構成され、応答していることを確認してください。 |
128552 | ERROR | Failed to check the status of path.(tag=\"$opt_t\" | 原因: OSUquickCheck は、DMMP デバイスにアクティブなパスを見つけられませんでした。 処置: DMMP デバイスが正しく構成されていることを確認してください。 |
128553 | ERROR | Failed to get the resource information.(tag=\"$opt_t\" | 原因: OSUquickCheck は、指定されたタグの情報を読み込めませんでした。 処置: タグが DMMP デバイス用であることを確認してください。 |
129100 | FATAL | Failed to load instance from LifeKeeper. | 原因: 無効なリソースタグまたは ID が指定されました。 処置: タグまたは ID が有効であることを確認し、コマンドを再実行してください。 |
129103 | FATAL | No resource matches tag "$self->{'tag'}". | 原因: 無効なリソースタグが指定されました。 処置: タグが有効であることを確認し、コマンドを再実行してください。 |
129104 | FATAL | An error occurred setting LifeKeeper resource information | 原因: LifeKeeper で内部エラーが発生しました。 |
129110 | ERROR | Could not get the Elastic Network Interface ID for $dev | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129111 | ERROR | Failed to get Allocation ID of Elastic IP "$elasticIp". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129113 | ERROR | Failed to get my instance ID. | 原因: EC2 インスタンスのメタデータのアクセスに失敗しました。 処置: Amazon コンソールを確認し、操作を再試行してください。 |
129114 | ERROR | Failed to get ENI ID. | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129116 | ERROR | Failed to associate Elastic IP "$self->{'EIP'}" on "$self->{'DEV'}". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129118 | WARN | $self->{'EIP'} is not associated with any instance. | 原因: Elastic IP がインスタンスに関連付けられていません。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行してください。隣接するログメッセージで詳細を確認してください。 |
129119 | WARN | $self->{'EIP'} is associated with another instance. | 原因: Elastic IP が別のインスタンスに関連付けられています。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行してください。隣接するログメッセージで詳細を確認してください。 |
129120 | ERROR | Failed to recover Elastic IP. | 原因: EC2 API が Elastic IP の関連付けに失敗しました。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129121 | ERROR | Recovery process ended but Elastic IP is not associated with this instance. Please check AWS console. | 原因: EC2 API が Elastic IP の関連付けに失敗しました。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129122 | ERROR | Error creating resource \"$target_tag\" with return code of \"$err\". | 原因: LifeKeeper がサーバー上にリソースインスタンスを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129123 | ERROR | Failed to get ENI ID. | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129124 | WARN | $self->{'EIP'} is associated with another network interface. | 原因: Elastic IP は正しいインスタンスに関連付けられていますが、ENI が正しくありません。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行してください。隣接するログメッセージで詳細を確認してください。 |
129125 | ERROR | Link check failed for interface '$dev'. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: ネットワークインターフェースを確認し、リンクをアップ状態にしてください。 |
129126 | ERROR | Link check failed for interface '$dev'. Reason: down slave. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: ネットワークインターフェースを確認し、リンクをアップ状態にしてください。 |
129127 | ERROR | Link check failed for interface \’$dev\’. | 原因: "nmcli connection show --active" の呼び出しで、$dev がアクティブであることが返されませんでした。 |
129129 | WARN | The link for network interface '$self->{'DEV'}' is down. Attempting to bring the link up. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: LifeKeeper は、リンクをアップ状態にして Elastic IP とインターフェースを関連付けることにより、問題の修正を試行してください。隣接するログメッセージで詳細を確認してください。 |
129130 | ERROR | Failed to modify "$opt_t" to end pint URL "$endpoint". | |
129137 | ERROR | The link for network interface '$self->{'DEV'}' is still down. | 原因: LifeKeeper がリンクをアップ状態にできませんでした。 処置: インターフェースが有効であり、アップ状態であることを確認してください。隣接するログメッセージで詳細を確認してください。 |
129139 | WARN | The link for network interface '$self->{'DEV'}' is down. | 原因: 要求したインターフェースが「NO-CARRIER」となっています。これは、リンクが存在しないことを示します。 処置: ネットワークインターフェースを確認し、リンクをアップ状態にしてください。 |
129140 | ERROR | Could not get ENI ID for $self->{IP}. | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129142 | ERROR | Failed to update route table | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129143 | ERROR | You must have exactly one IP address resource as the parent of the RouteTable EC2 resource. Please reconfigure your resource hierarchy. | 原因: ルートテーブルの EC2 リソースは親として IP リソースを 1 つのみ持つ必要があります。 処置: 必要に応じてリソース階層を修復してください。 |
129144 | ERROR | $func called with invalid timeout: $timeout | 原因: /etc/default/LifeKeeper ファイルに無効なタイムアウト値が指定されました。 処置: /etc/default/LifeKeeper 内にあるすべての EC2_*_TIMEOUT 設定が正しいことを確認してください。 |
129145 | ERROR | $func action timed out after $timeout seconds | 原因: タイムアウト期間中に動作が完了しませんでした。 処置: その動作の EC2_*_TIMEOUT 値 (/etc/default/LifeKeeper 内) を増加することを検討してください。 |
129146 | ERROR | failed to run $func with timeout: $@ | 原因: これは内部エラーです。 |
129148 | ERROR | Amazon describe-route-tables call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129150 | ERROR | Elastic IP \"$elasticIp\" is associated with another instance. | 原因: Elastic IP が正しいインスタンスに関連付けられていません。 処置: LifeKeeper は Elastic IP を関連付ける EC2 API を呼び出して、問題の修正を試行してください。隣接するログメッセージで詳細を確認してください。 |
129151 | ERROR | Could not get the Association ID for Elastic IP "$elasticIp". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129152 | ERROR | Failed to disassociate Elastic IP "$self->{'EIP'}" on "$self->{'DEV'}". | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129153 | ERROR | Failed to disassociate Elastic IP "$elasticIp", (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129154 | ERROR | Amazon describe-addresses call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129155 | ERROR | Amazon describe-address call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129157 | ERROR | curl call failed (err=%s)(output=%s) | 原因: EC2 インスタンスのメタデータのアクセスに失敗しました。 処置: Amazon コンソールを確認し、操作を再試行してください。 |
129159 | ERROR | Amazon associate-address call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129160 | ERROR | Amazon describe-addresses call failed (err=%s)(output=%s) | 原因: EC2 API の呼び出しに失敗しました。ネットワークの問題と考えられます。 処置: ネットワークと Amazon コンソールを確認し、操作を再試行してください。 |
129161 | ERROR | Error deleting resource "$otherTag" on "$otherSys" with return code of "$err". | 原因: LifeKeeper がサーバー上のリソースインスタンスを削除できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129162 | ERROR | Could not getRouteTablesByIP | |
129163 | ERROR | Could not getRouteTablesByIP | |
129164 | ERROR | [$SUBJECT event] mail returned $err | |
129165 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
129167 | ERROR | snmptrap returned $err for Trap 180 | |
129168 | ERROR | COMMAND OUTPUT: cat /tmp/err$$ | |
129170 | ERROR | This resource is in the old format. Please update. | |
129171 | ERROR | Error disabling sourceDest checks with return code of \"$ret\". | |
129172 | ERROR | Failed to lookup IP from resource $self->{'tag'}. | |
129173 | ERROR | Failed to lookup device GUID for IP resource $iptag. | |
129174 | ERROR | Could not find eni_id for device GUID $dev. | |
129175 | ERROR | Failed to disable sourceDestChecks. (err=%s)(output=%s | |
129176 | ERROR | Failed to disable sourceDestChecks for $eni_id. (err=%s)(output=%s | |
129177 | ERROR | Error disabling sourceDest checks with return code of \"$ret\". | |
129178 | ERROR | Failed to disable sourceDestChecks for $eni_id. (err=%s)(output=%s | |
129180 | ERROR | Elastic Network Interface $eni sourceDestChecks are enabled. | |
129181 | WARN | WARNING Failed to find IP resources since EC2 resource is extended first. Skipping sourceDestChecks. | |
129182 | WARN | WARNING SourceDestCheck was skipped because Amazon describe-network-interface-attribute call failed. Please check if ec2:DescribeNetworkInterfaceAttribute and ec2:ModifyNetworkInterfaceAttribute are granted. | |
129403 | ERROR | END failed create of $TAG due to a $sig signal | 原因: 作成プロセスがシグナルによって中断されました。 |
129409 | ERROR | The IP resource $IP_RES is not \"ISP\". | 原因: IP リソースが in service ではありません。 処置: リソースを in service にして、操作をもう一度行ってください。 |
129410 | ERROR | Could not find IP resource $IP_RES | 原因: IP リソースが存在していることを確認し、操作を再試行してください。 |
129412 | ERROR | EC2 resource $ID is already protected | 原因: 指定した ID を持つリソースはすでに存在しています。 処置: 残っている古いリソースをすべてクリーンアップしてから、新しいリソースを再作成してください。 |
129416 | ERROR | Error creating resource "$TAG" with return code of "$lcderror". | 原因: LifeKeeper がリソースインスタンスを作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129418 | ERROR | Dependency creation between "$IP_RES" and "$TAG" failed with return code of "$lcderror". | 原因: LifeKeeper がリソースの依存関係を作成できませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129420 | ERROR | In-service failed for tag "$TAG". | 原因: LifeKeeper がリソースインスタンスを in service にできませんでした。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129423 | ERROR | Could not get ENI ID for $dev. | |
129425 | ERROR | Failed to update route table | |
129426 | ERROR | In-service (dummy) failed for tag "$TAG". | |
129800 | ERROR | canextend checks failed for \"$self->{‘tag’}\" (err=$ret) | 原因: ターゲットサーバーで拡張前のチェックに失敗しました。 処置: 隣接するログメッセージで詳細および関連メッセージを確認し、レポートされているエラーを修正してください。 |
129801 | ERROR | canextend checks failed for "$self->{'tag'}". EC2_HOME "$self->{EC2_HOME}" does not exist on $me. | |
133106 | ERROR | You must have exactly one IP address resource as the child of the route53 resource. Please reconfigure your resource hierarchy. | |
133111 | ERROR | Failed to init the object. | |
133114 | ERROR | Failed start Route53 resource $self->{Tag} | |
133115 | ERROR | Failed start Route53 resource $self->{Tag} | |
133116 | WARN | Could not Get A Record Value Address : $aAWSresult | |
133117 | WARN | aws call failed : $aAWSresult | |
133118 | WARN | aws call failed : $upsertResp | |
133119 | ERROR | Could not Update and Create A Record Set : $upsertResp | |
133120 | WARN | Could not get Route53 API batch request ID form UPSERT response XML data : $upsertResp | |
133121 | WARN | Could not Get A Record Value Address : $aAWSresult | |
133122 | WARN | aws call failed : $statusResult | |
133123 | ERROR | Faild check change batch request status : $statusResult | |
133126 | WARN | Failed to Route53 API response : $rc | |
133129 | ERROR | Route53 resource $self->{Tag} is stopped | |
133130 | ERROR | $self->{Tag} is in the old format. Please update. | |
133601 | ERROR | $usage | |
133602 | ERROR | Template resource "$template_tag" on server \"$template_sys" does not exist | |
133608 | ERROR | Template resource "$template_tag" on server "$template_sys" does not exist | |
133614 | ERROR | Error creating resource "$Tag" on server "$me" | |
133617 | ERROR | END failed hierarchy extend of resource $Tag with return value of $ecode. | |
133619 | ERROR | $usage | |
133620 | ERROR | END failed extend of "$Tag" due to a "$sig" signal | |
133700 | ERROR | $usage | |
133701 | ERROR | END failed create of "$Route53Tag" due to a "$sig" signal | |
133703 | ERROR | Unable to getlocks on $me during resource create. | |
133704 | ERROR | The route53 on $Route53HostName is already protected by LifeKeeper. | |
133706 | ERROR | Error creating resource $Route53Tag. Error ($rc) | |
133708 | ERROR | Dependency create failed between $Route53Tag and $Route53IPResTag. Error ($rc). | |
133710 | ERROR | In-service attempted failed for tag $Route53Tag. | |
133813 | ERROR | Usage: $usage | |
133815 | ERROR | The host name "$hostname" is too long. | |
133816 | ERROR | The host name "$hostname" is too short. | |
133817 | ERROR | The host name "$hostname" contains invalid character. | |
133818 | ERROR | The first character must be an alpha character. | |
133819 | ERROR | The last character must not be a minus sign or period. | |
133826 | ERROR | Host Name cannot be blank. | |
134003 | ERROR | catch a \"$sig\" signal | 原因: create処理がシグナルによって中断されました。 処置: 前後のログメッセージを確認してください。 |
134004 | ERROR | Unable to getlocks on $server during resource create. Error ($rc) | 原因: リソース階層の作成時に管理ロックの取得に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134005 | ERROR | The service \"$serviceName\" is not supported on $server. Error ($rc) | 原因: サービスが存在しないか保護できないサービスです。 処置: 適切なサービス名を入力してください。 |
134006 | ERROR | The service \"$serviceName\" is already protected on $server. | 原因: すでに保護されているサービスです。 処置: このサービスを保護するためのリソースを作成することはできません。 |
134007 | ERROR | Error creating resource $tag. Error ($rc) | 原因: QSPリソースの作成に失敗しました。 処置: 前後のログメッセージを確認して、エラーの原因を取り除いてください。 |
134011 | ERROR | In-service attempted failed for tag $tag. | 原因: QSPリソースの起動に失敗しました。 処置: 保護したいサービスに関連したログを確認して、問題を解決してください。 |
134015 | ERROR | Unable to rlslocks on $server during resource create. Error ($rc) | 原因: QSPリソースの作成後にロックの解除に失敗しました。 処置: 関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134103 | ERROR | Template resource \"$template_tag\" on server \"$template_sys\" does not exist | 原因: テンプレートシステムでリソースを見つけられません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
134104 | ERROR | Template resource \”$template_tag\” on server \”$template_sys\” is not QSP resource (app=$ins[1], res=$ins[2]) | 原因: テンプレートリソースはQSPリソースではありません。 処置: テンプレートリソースと同じタイプに拡張してください。 |
134105 | ERROR | The service \"$service\" is not supported on $me. Error ($check) | 原因: 拡張先のサーバーにサービスが存在しません。 処置: 拡張先サーバーにサービスをインストールしてから拡張してください。 |
134106 | ERROR | The service \"$service\" is already protected on $me. | 原因: 拡張先サーバーに同じIDのリソースが既にあります。 処置: 同じサービスのリソースを作成することはできません。 |
134203 | ERROR | catch a \"$sig\" signal | 原因: リソース拡張処理がシグナルによって中断されました。 処置: 前後のログメッセージを確認してください。 |
134204 | ERROR | Template resource \"$template_tag\" on server \"$template_sys\" does not exist | 原因: テンプレートシステムでリソースを見つけられません。 処置: テンプレートシステムで階層が正しいことを確認してから拡張してください。 |
134208 | ERROR | Error creating resource \"$tag\" on server \"$me\" | 原因: LifeKeeperはターゲットサーバーにリソースインスタンスを作成できませんでした。 処置: 前後のログメッセージを確認して、エラーの原因を取り除いてください。 |
134401 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの起動処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認し、restore操作を再試行してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134405 | FATAL | Failed to fork process to execute systemctl command: $! | 原因: fork が失敗しました。これはシステムエラーです。 処置: fork が失敗する理由を特定してください。 |
134407 | ERROR | systemctl command has failed for \"$tag\" | 原因: systemctl コマンドの実行に失敗しました。 処置: start オプションで systemctl コマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134501 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの停止処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認し、remove操作を再試行してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134505 | FATAL | Failed to fork process to execute service command: $! | 原因: forkが失敗しました。これはシステムエラーです。 処置: forkが失敗する理由を特定してください。 |
134507 | ERROR | service command has failed for \"$tag\" | 原因: service コマンドの実行に失敗しました。 処置: stop オプションで service コマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134601 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの監視処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134605 | FATAL | Failed to fork process to execute service command: $! | 原因: fork が失敗しました。これはシステムエラーです。 処置: fork が失敗する理由を特定してください。 |
134607 | ERROR | service command has failed for \"$tag\" | 原因: service コマンドの実行に失敗しました。 処置: status オプションで service コマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134701 | ERROR | timeout $cmd for \"$tag\". Forcibly terminating. | 原因: サービスの回復処理が規定時間を超えても終了しません。 処置: 保護しているサービスについて確認してください。また、関連するエラーをログで確認し、レポートされている問題を解決してください。 |
134706 | FATAL | Failed to fork process to execute service command: $! | 原因: fork が失敗しました。これはシステムエラーです。 処置: fork が失敗する理由を特定してください。 |
134708 | ERROR | service command has failed for \"$tag\" | 原因: service コマンドの実行に失敗しました。 処置: start オプションで service コマンドを手動実行するとエラーになります。エラーメッセージを参考にしてエラーの原因を取り除いてください。 |
134803 | ERROR | tag \"$tag\" does not exist on server \"$me\" | 原因: 指定されたタグが存在しません。これは内部エラーです。 |
134804 | ERROR | app type \”$ins[1]\” is not $app | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134805 | ERROR | res type \”$ins[2]\” is not $res | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134823 | ERROR | tag \"$tag\" does not exist on server \"$me\" | 原因: 指定されたタグが存在しません。これは内部エラーです。 |
134824 | ERROR | app type \”$ins[1]\” is not $app | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134825 | ERROR | res type \”$ins[2]\” is not $res | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134843 | ERROR | tag \"$tag\" does not exist | 原因: 指定されたタグが存在しません。これは内部エラーです。 |
134844 | ERROR | app type \”$ins[1]\” is not $app | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
134845 | ERROR | res type \”$ins[2]\” is not $res | 原因: 指定されたタグはQSPリソースではありません。これは内部エラーです。 |
135802 | ERROR | object[%d] not iterated for %lld ms. | |
135806 | ERROR | qwk_config() failed. | |
135807 | ERROR | thread_initialize() failed. | |
135808 | ERROR | state_monitor_initialize() failed. | |
135809 | ERROR | state_monitor() failed. | |
135810 | ERROR | start_server() failed. | |
135812 | ERROR | ‘fopen’ for %s failed: %m | |
135813 | ERROR | ‘qwk_object_path=’ line cannot be found for %s. | |
135814 | ERROR | ‘%s’ is unknown config. | |
135815 | ERROR | configuration of hbeattime ‘%d’ is incorrect. | |
135816 | ERROR | configuration of numhbeats ‘%d’ is incorrect. | |
135817 | ERROR | configuration of timeout_multiplier ‘%d’ is incorrect. | |
135818 | ERROR | configuration of lcmhbeattime ‘%d’ is incorrect. | |
135819 | ERROR | configuration of lcmnumhbeats ‘%d’ is incorrect. | |
135820 | ERROR | configuration of qwk_object_type is incorrect. | |
135821 | ERROR | configuration of my_node is incorrect. | |
135822 | ERROR | configuration of number_of_node ‘%d’ is incorrect. | |
135823 | ERROR | configuration of number_of_object ‘%d’ is incorrect. | |
135824 | ERROR | configuration of object node is incorrect. | |
135825 | ERROR | configuration of object path is incorrect. | |
135826 | ERROR | my_node is not include in qwk_objects. | |
135827 | ERROR | ‘open’ for %s failed: %m | |
135828 | ERROR | ‘read’ for %s failed: %m | |
135829 | ERROR | ‘popen’ for %s failed: %m | |
135830 | ERROR | ‘open’ for %s failed: %m | |
135831 | ERROR | ‘write’ for %s failed: %m | |
135832 | ERROR | ‘popen’ for %s failed: %m | |
135833 | ERROR | (bug) buffer overflow | |
135834 | ERROR | (bug) data is corrupted | |
135835 | ERROR | ‘signature=’ line cannot be found. | |
135836 | ERROR | signature ‘%s’ does not match. | |
135837 | ERROR | ‘local_node=’ line cannot be found. | |
135838 | ERROR | local_node ‘%s’ does not match. | |
135839 | ERROR | ‘time=’ line cannot be found. | |
135840 | ERROR | ‘sequence=’ line cannot be found. | |
135841 | ERROR | sequence ‘%s’ scan failed. | |
135842 | WARN | ‘node=’ line cannot be found. index=%d | |
135843 | ERROR | ‘commstat=’ line cannot be found. index=%d | |
135844 | ERROR | ‘checksum=’ line cannot be found. | |
135845 | ERROR | checksum ‘%s’ scan failed. | |
135846 | ERROR | checksum does not match. | |
135849 | ERROR | qwk object was not found. | |
135851 | ERROR | failed to read qwk object. | |
135852 | ERROR | failed to decode node_info. | |
135854 | WARN | sequence backed down from %llu to %llu. | |
135855 | ERROR | ‘malloc’ for %zu failed: %m | |
135856 | ERROR | thread_create() failed. index=%d | |
135870 | ERROR | (bug) data is corrupted | |
135871 | ERROR | format error in request. | |
135872 | ERROR | format error in quorum_verify request. lkevent cannot be found. | |
135873 | ERROR | format error in witness_verify request. lkevent cannot be found. | |
135874 | ERROR | format error in witness_verify request. target_node cannot be found. | |
135875 | ERROR | ‘%s’ is unknown command. | |
135877 | ERROR | qwk_receive() did not receive full header. Close socket. | |
135878 | ERROR | Request is too long. Close socket. | |
135879 | ERROR | qwk_receive() did not receive full request. Close socket. | |
135880 | ERROR | do_request() failed. | |
135881 | ERROR | qwk_send() did not send full header. Close socket. | |
135882 | ERROR | qwk_send() did not send full response. Close socket. | |
135884 | ERROR | qwk_accept() failed. | |
135885 | ERROR | thread_create() failed. | |
135886 | ERROR | cannot create socket. | |
135887 | ERROR | ‘bind’ failed: %m | |
135888 | ERROR | ‘listen’ failed: %m | |
135889 | ERROR | create_sockets() failed. | |
135890 | ERROR | thread_create() failed. | |
135891 | ERROR | ‘pthread_attr_init’ failed: %m | |
135892 | ERROR | ‘pthread_attr_setstacksize’ failed: %m | |
135893 | ERROR | ‘pthread_create’ failed: %m | |
135894 | ERROR | requst is too long. header.size=%zu | |
135895 | ERROR | qwk_send() failed for header. | |
135896 | ERROR | qwk_send() failed for request. | |
135897 | ERROR | qwk_send() failed for termination. | |
135898 | ERROR | qwk_receive() did not receive full header. | |
135899 | ERROR | Response buffer is not enough large. Server sent %zu bytes. | |
135900 | ERROR | qwk_receive() did not receive full response. | |
135901 | ERROR | ‘%s’ is unknown command. | |
135903 | ERROR | Cannot create socket. | |
135904 | ERROR | ‘connect’ failed: %m | |
135905 | ERROR | request_send() failed. | |
135906 | ERROR | request_receive() failed. | |
135907 | ERROR | ‘%s’ is unknown lkevent. | |
135908 | ERROR | ‘%s’ is unknown qwktype. | |
135909 | ERROR | ‘%s’ is unknown node state. | |
135910 | ERROR | ‘%s’ is unknown quorum state. | |
135911 | ERROR | ‘accept’ failed: %m | |
135912 | ERROR | You must install the LifeKeeper license key for Storage Quorum Witness Kit. | |
135913 | EMERG | WARNING: Cannot find the configuration for node ‘%s’ in the configuration file. If the configuration of the cluster is changed after the initialization, it needs to be initialized again. Please see the SIOS product documentation for information on how to reinitialize. | |
135914 | WARN | The first cycle did not complete before timeout (%lld ms). | 原因: StorageモードでのQuorumオブジェクトへの初回書き込みが表示の時間(単位はミリ秒)でタイムアウトしました。 処置: QWK_STORAGE_HBEATTIME、QWK_STORAGE_NUMHBEATSの設定値を大きくするか、本メッセージ出力後に135802のメッセージが頻繁に出力される場合はQuorum/Witnessのstorageモードページにあるトラブルシューティングの項を参照ください。 |
135916 | WARN | The first cycle did not complete before timeout (%lld ms). | 原因: StorageモードでのQuorumオブジェクトへの初回書き込みが表示の時間(単位はミリ秒)でタイムアウトしました。 処置: QWK_STORAGE_HBEATTIME、QWK_STORAGE_NUMHBEATSの設定値を大きくするか、本メッセージ出力後に135802のメッセージが頻繁に出力される場合はQuorum/Witnessのstorageモードページにあるトラブルシューティングの項を参照ください。 |
135917 | ERROR | params is NULL. return 0 as timeout msec. | 原因: 内部の処理で問題が発生しました。 処置: 調査を依頼してください。 |
135998 | EMERG | An unrecoverable error was detected in qwk_storage_server. Stop restarting qwk_storege_server. | |
135999 | ERROR | COMMAND OUTPUT: $LKROOT/lkadm/bin/qwk_storage_server $LKROOT/config/qwk-storage.cfg | |
136002 | ERROR | Usage: $usage | 原因: SAP HANA createスクリプトに無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: |
136003 | ERROR | END failed create of resource $tag on server $me with return value of $errcode. | 原因: SAP HANAリソースの作成中に障害が発生した。 処置: SAP HANAシステムレプリケーションがプライマリとセカンダリの両方のレプリケーションサイトで完全に構成および有効化されていることを確認し、リソース作成操作を再試行してください。 |
136005 | ERROR | An unknown error has occurred in utility rlslocks on server $me. View the LifeKeeper logs for details and retry the operation. | 原因: SAP HANAリソースの作成中にLifeKeeper rlslocksユーティリティで問題が発生する。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136006 | ERROR | END failed create of resource $tag on server $me with signal $sig. | 原因: SAP HANAリソース作成中のシグナルによる割込み。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136008 | ERROR | An unknown error has occurred in utility getlocks on server $me. View the LifeKeeper logs for details and retry the operation. | 原因: SAP HANAリソースの作成中にLifeKeeper getlocksユーティリティで問題が発生する。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136009 | ERROR | The SAP HANA product was not found in the directory $obj->{'hana_util_path'} on server $me. Verify that SAP HANA is correctly installed and that all necessary file systems are mounted. | 原因: リソースの作成中に、必須のSAP HANAバイナリが見つからなかった。 処置: クラスター内のすべてのサーバーでSAP HANAが正しくインストールされ、構成されていることを確認してください。 |
136010 | ERROR | Failed to create resource as id $id already exists on system $me. | 原因: 指定されたIDのLifeKeeperリソースがすでにシステムに存在する。 処置: SAP HANAデータベースがLifeKeeperによってすでに保護されているかどうかを確認してください。 |
136011 | ERROR | Failed to create new tag $tag for SAP HANA resource on $me. | 原因: 入力されたSAP HANAリソースタグは別のLifeKeeperリソースによってすでに使用されており、LifeKeeper newtagユーティリティは新しいタグを作成できなかった。 処置: SAP HANAリソースに対し、別のタグ名を選択してください。 |
136012 | ERROR | Failed creation of resource with $tag on system $me. | 原因: LifeKeeperで指定したSAP HANAリソースを作成できなかった。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136014 | ERROR | Failed to create resource dependency for parent $tag and child $virtual_ip_tag. | 原因: SAP HANAリソースとそれが依存する仮想IPリソース間の依存関係の作成に失敗した。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース作成操作を再試行してください。 |
136015 | ERROR | The info field for resource $tag could not be successfully generated using values [SID: $info_sid, Instance: $info_instance, Replication Mode: $info_repl_mode, Site Name: $info_site_name, Operation Mode: $info_oper_mode]. Please verify that SAP HANA System Replication is fully configured and enabled on both the primary and secondary systems before creating the SAP HANA resource. | 原因: SAP HANAの「リソース情報」フィールドの作成時に無効な値が見つかった。 処置: SAP HANAが正しくインストールおよび構成されていること、SAP HANAシステムレプリケーションがクラスター内のすべてのサーバーで完全に構成され有効になっていることを確認してください。 |
136016 | ERROR | The selected server $me is not the primary/source system for SAP HANA System Replication for the selected SID $sid and HDB instance $instance. Please select ‘Cancel’ and start this action on the primary/source HANA System Replication system. | 原因: リソースの作成が、HANAシステムレプリケーションのセカンダリシステムで開始されている。 処置: HANAシステムレプリケーションのプライマリシステムで作成操作を開始してください。 |
136031 | ERROR | END failed extend of resource $target_tag on server $me with return value of $err_code. | 原因: SAP HANAリソースの拡張中に問題が発生した。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース拡張操作を再試行してください。 |
136033 | ERROR | Usage: $usage | 原因: SAP HANA extendスクリプトに無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: |
136035 | ERROR | Template resource $template_tag on server $template_sys does not exist. | 原因: 拡張するテンプレートSAP HANAリソースがテンプレートサーバー上に存在しない。 処置: テンプレートサーバー上に、拡張されているSAP HANAリソースが存在することを確認してください。 |
136036 | ERROR | Resource with matching id $target_id already exists on server $me for App $app_type and Type $res_type. | 原因: 同じLifeKeeper IDのSAP HANAリソースがターゲットシステムにすでに存在する。 処置: SAP HANAデータベースが、ターゲットサーバー上のLifeKeeperによってすでに保護されているかどうかを確認してください。 |
136037 | ERROR | Resource with matching tag $target_tag already exists on server $me for App $app_type and Type $res_type | 原因: 同じLifeKeeperリソースタグを持つSAPリソースがターゲットサーバーに既に存在する。 処置: SAP HANAデータベースが、ターゲットサーバー上のLifeKeeperによってすでに保護されているかどうかを確認してください。 |
136039 | ERROR | Error creating resource $target_tag on system $me. | 原因: ターゲットサーバーで同等のSAP HANAリソースを作成できなかった。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース拡張操作を再試行してください。 |
136040 | ERROR | The target tag ($target_tag) and template tag ($template_tag) must be the same. | 原因: プライマリーシステムで使用されるリソースタグ名が、セカンダリーシステムで使用されるリソースタグ名と異なる。 両方の名前は同じでなければならない。 処置: リソースの作成では、プライマリーシステムタグおよびセカンダリーシステムタグと同じ名前を使用してください。 |
136041 | ERROR | Error getting resource information for $template_tag on server $template_sys. | 原因: 指定されたサーバー上の指定された SAP HANA リソースに関する情報を取得できませんでした。 処置: 指定されたタグを持つ SAP HANA リソースが指定されたサーバーに存在することを確認してください。 |
136042 | ERROR | Failed to update info fields for equivalent resources while extending resource $target_tag on $me. | 原因: 指定されたサーバー上の指定された SAP HANA リソースに関する情報を取得できませんでした。 処置: 指定されたタグを持つ SAP HANA リソースが指定されたサーバーに存在することを確認してください。 |
136045 | ERROR | Cannot extend resource $template_tag to server $me. | 原因: SAP HANA canextendスクリプトは、リソースを特定のターゲットシステムに拡張できないことを示している。 処置: LifeKeeperログファイルで見つかった問題を解決し、リソース拡張操作を再試行してください。 |
136047 | ERROR | Usage: $usage | 原因: SAP HANA canextendスクリプトに無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: |
136048 | ERROR | Resource $template_tag does not exist on server $template_sys. | 原因: 拡張するテンプレートSAP HANAリソースがテンプレートサーバー上に存在しない。 処置: テンプレートサーバー上に、拡張しているSAP HANAリソースが存在することを確認してください。 |
136049 | ERROR | The system user $hana_user does not exist on server $me. | 原因: SAP HANAデータベースのSAP管理ユーザーが、指定されたサーバーに存在しない。 処置: SAP HANAが正しくインストールおよび構成されていることを確認してください。 |
136050 | ERROR | The user id for user $hana_user ($template_uid) on template server $template_sys is not the same as user id ($uid) on target server $me. | 原因: SAP管理ユーザーのユーザーIDが、テンプレートサーバーとターゲットサーバーで異なっている。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136051 | ERROR | The group id for user $hana_user ($template_gid) on template server $template_sys is not the same as group id ($gid) on target server $me. | 原因: SAP管理ユーザーのグループIDが、テンプレートサーバーとターゲットサーバーで異なっている。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136052 | ERROR | The home directory for user $hana_user ($template_home) on template server $template_sys is not the same as home directory ($user_home) on target server $me. | 原因: SAP管理ユーザーのホームディレクトリが、テンプレートサーバーとターゲットサーバーで異なっている。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136053 | ERROR | The SAP HANA instance $instance does not exist for $sid on server $me. | 原因: 指定されたSAP HANAデータベースインスタンスのインストールディレクトリが見つからなかった。 処置: SAPのHANAがクラスター内のすべてのサーバーに適切にインストールおよび構成されていることを確認してください。 |
136055 | ERROR | The SAP HANA site name $target_obj->{‘site_name’} on server $me must be different from site name $template_obj->{‘site_name’} on $template_obj->{‘sys’}. | 原因: SAP HANAシステムレプリケーションのサイト名が、プライマリサーバーとセカンダリサーバーの両方で同じになっている。 処置: セカンダリサーバー上のSAP HANAデータベースを停止し、hdbnsutilユーティリティを使用して、別のサイト名でセカンダリレプリケーションサイトを再登録してください。 |
136056 | ERROR | Unable to obtain SAP HANA System Replication parameters for database $instance on server $me. Please verify that SAP HANA System Replication is enabled and properly configured and that the database instance is running on all servers in the cluster. | 原因: 指定されたシステム上のデータベースのSAP HANAシステムレプリケーションパラメーターを決定できなかった。 処置: SAP HANAシステムレプリケーションが有効で適切に構成されていること、およびデータベースがクラスター内のすべてのサーバーで実行されていることを確認してください。 |
136057 | ERROR | Unable to create a HANA object for database $instance on server $me. Please verify that database instance $instance is properly installed. | 原因: 指定したサーバー上の指定したインスタンスを表す内部HANAオブジェクトを作成できない。 処置: データベースインスタンスが正しくインストールされており、必要なすべてのファイルシステムがマウントされていることを確認してください。 |
136062 | ERROR | Invalid operation mode: $oper_mode. Acceptable values: $valid_oper. | 原因: マルチターゲット構成で SAP HANA リソースを拡張するときに、無効な操作モードが使用されました。 処置: 許容される操作モードは、メッセージにリストされています。 |
136065 | ERROR | Failed to update the instance info field. | 原因: SAP HANA リソースの情報フィールドは、マルチターゲットサポートを許可するように更新されていません。 処置: クラスター内すべてのシステムで LifeKeeper が実行されており、リソースが in-service であることを確認してください。 |
136066 | ERROR | The SAP HANA resource $template_tag is configured on the maximum (%d) supported number of servers. | 原因: LifeKeeper HANA リカバリーキットがサポートする最大数のサーバーに SAP HANA リソースが構成されています。 処置: LifeKeeper HANA Recovery Kit でサポートされるサーバーの最大数は変更できません。 |
136067 | ERROR | The SAP HANA resource $template_tag with \"delta_datashipping\" is configured on the maximum (2) supported number of servers. | 原因: SAPは、マルチターゲット構成でのdelta_datashippingをサポートしていません。 処置: サポートされているオペレーションモードを使用してください。 |
136083 | ERROR | Usage: $usage | 原因: SAP HANA deleteスクリプトの引数が無効。 処置: 有効なHANA LifeKeeperリソースタグ名とリソースIDの両方を入力してください。 |
136096 | ERROR | One of the required parameters (server, tag, or action) was missing. Unable to set the local recovery policy. | 原因: 必要なパラメーター(サーバー、タグ、アクション)のいずれかが指定されていません。 処置: 必要なパラメーターを指定して、操作を再試行してください。 |
136097 | ERROR | Failed to $flg_action local recovery for SAP HANA resource $tag on server $node. | 原因: 指定されたサーバー上の指定されたSAP HANAリソースのローカルリカバリーの有効化または無効化に失敗しました。 処置: LifeKeeperが実行中で、完全に初期化されていることを確認してから、操作を再試行してください。 |
136099 | ERROR | Failed start of SAP Host Agent on server $sys. | 原因: 指定されたサーバーでSAP Host Agentプロセス(saphostexec, saposcol)を開始できませんでした。 処置: SAP Host Agentプロセスのトレースログを確認し、見つかった問題を修正してから、操作を再試行してください。 |
136100 | ERROR | Failed start of SAP Host Agent on server $sys. | 原因: 指定されたサーバーでSAP Host Agentプロセス(saphostexec, saposcol)を開始できませんでした。 処置: SAP Host Agentプロセスのトレースログを確認し、見つかった問題を修正してから、操作を再試行してください。 |
136101 | ERROR | Failed to register server $sys as a secondary SAP HANA System Replication site. | 原因: 指定されたサーバーを指定されたデータベースのセカンダリーサイトとして SAP HANA システムレプリケーションに登録できませんでした。 処置: 詳細については、SAP HANA トレースファイル (nameserver_<hostname>.xxxxx.xxx.trc など) を調べてください。 |
136119 | WARN | Resource $eqv_tag not found on server $sys. | 原因: サイトの情報を生成している間、指定されたサーバー上のリソースを更新できませんでした。 処置: 指定されたタグを持つ SAP HANA リソースが、指定されたサーバーに存在することを確認してください。 |
136120 | ERROR | Failed to update site name for $sys, site name not defined. | 原因: サイト名が定義されていないため、SAP HANA サイト名の検証に失敗しました。 処置: 検証中の SAP HANA リソースに有効なサイト名があることを確認してください。 |
136121 | ERROR | Failed to update replication mode for $sys, invalid replication mode \"$repl_mode\" not permitted. | 原因: レプリケーションモードが定義されているが許可されていないため、SAP HANA レプリケーションモードの検証に失敗しました。 処置: 検証中の SAP HANA リソースに有効なレプリケーションモードがあることを確認してください。 |
136122 | ERROR | Failed to update operation mode for $sys, invalid operation mode \"$oper_mode\" not permitted. | 原因: オペレーションモードが定義されているが許可されていないため、SAP HANA オペレーションモードの検証に失敗しました。 処置: 検証中の SAP HANA リソースの操作モードが有効であることを確認してください。 |
136124 | ERROR | Failed to update info field for resource $eqv_tag on server $sys from [$orig_info] to [$new_info]. | 原因: LifeKeeper で内部エラーが発生しました。 処置: 構成によっては、情報フィールドのロールバックが試行される場合があります。それ以外の場合は、手動での更新が必要になる場合があります。 |
136127 | WARN | WARNING: Failed to roll back to original info fields after failed update. Temporary mismatches may exist in connection types between servers until they can be successfully synchronized. | 原因: LifeKeeper で内部エラーが発生しました。 処置: ins_list インフォフィールドをロールバックしようとして失敗しました。 quickCheck サイクル中に別の試行が行われる場合があります。それ以外の場合は、手動構成が必要になる場合があります。 |
136152 | WARN | There was an error retrieving the HSR status from the \"$self->{‘hana_sysreplstatus_script’}\" script for site $site_id, setting the value to \"$value\". | 原因: SAP HANA システムレプリケーションのステータスを取得しようとして失敗しました。 処置:LifeKeeper と SAP のログファイルを調べて、失敗の原因を特定し、見つかった問題を手動で修正してください。SAP HANA リソースが in-service である間、LifeKeeper は自動的にステータスの読み取りと更新を継続して利用可能にしてください。 |
136160 | ERROR | Unable to create SAP HANA object. The SID and instance for the SAP HANA database must be provided. | 原因: SAP HANA オブジェクトの作成中に、SAP SID または SAP HANA インスタンス名のいずれかが欠落しています。 処置: 詳細については、LifeKeeper ログファイルを確認してください。 |
136161 | ERROR | Unable to create SAP HANA object. Resource system name and tag name must be provided. | 原因: SAP HANAオブジェクトの作成中に、システム名またはリソースタグ名のいずれかが欠落していた。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136162 | ERROR | Could not find any information regarding resource $tag on $sys. | 原因: 指定されたタグを持つSAP HANAリソースに関する情報を取得できなかった。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136168 | ERROR | Unable to check status of SAP Host Agent on server $self->{‘sys’}. Command \"$curr_cmd\" returned exit code $ret. | 原因: 指定されたサーバーでSAP Host Agentプロセスのステータスを判別できなかった。 処置: 詳細については、SAP Host Agentトレースファイル(dev_saphostexecなど)を確認してください。 |
136174 | ERROR | Unable to create SAP HANA object. The SID or instance value is missing. | 原因:SAP HANA オブジェクトの作成時に、SAP SID、SAP HANA インスタンス名、または SAP HANA システムレプリケーション値のいずれかが欠落しています。 処置: 詳細については、LifeKeeper ログファイルを確認してください。 |
136182 | ERROR | Failed to $flg_action flag \"${HANA_FLAG_DATA_OUT_OF_SYNC}_$eqv_tag{$sys}\" on server $sys. | 原因: 指定されたサーバーで !HANA_DATA_OUT_OF_SYNC_<tag> フラグを作成または削除できませんでした。 処置: 詳細については、LifeKeeper ログファイルを確認してください。 |
136190 | ERROR | Failed to start SAP Host Agent processes on server $self->{‘sys’}. Command \"$hostagent_cmd\" returned $ret. | 原因: 指定されたサーバーでSAP Host Agentプロセスを開始できませんでした。 処置: 詳細については、SAP Host Agentトレースファイル(dev_saphostexecなど)を確認してください。 |
136191 | ERROR | Failed to start SAP OS Collector process on server $self->{‘sys’}. Command \"$oscol_cmd\" returned $ret. | 原因: 指定されたサーバーで SAP OS Collector プロセスを開始できませんでした。 処置: 詳細については、SAP OS コレクタートレースファイル(dev_collなど)を確認してください。 |
136193 | ERROR | $takeover_text of SAP HANA System Replication for SAP HANA database $self->{'instance'} failed on server $node with exit code $ret. | 原因: SAP HANAシステムレプリケーションで、指定されたデータベースのプライマリマスターとして指定されたサーバーを登録できませんでした。 処置: 詳細については、SAP HANA トレースファイル(例:nameserver_<hostname>.xxxxx.xxx.trc)を確認してください。 |
136197 | ERROR | Update of resource info field for $eqv_tag{$sys} on $sys failed with exit code $setinfo_ret. Current info: [$info]. Attempted new info: [$new_info]. | 原因: 指定されたサーバー上の指定されたリソースの情報フィールドを更新できませんでした。 処置: 詳細については、LifeKeeper ログファイルを確認してください。 |
136202 | EMERG | Failed to disable Autostart for SAP HANA instance $self->{‘instance’} on server $sys with exit code $remexec_ret. Please manually set \"Autostart = 0\" in the instance profile $profile on $sys. | 原因: Autostart パラメーターの値を、指定されたサーバー上の指定された HDB インスタンスプロファイルで変更できませんでした。 処置: HDB インスタンスプロファイルを手動で編集し、「Autostart = 0」に設定してください。 |
136205 | ERROR | Failed start of SAP Start Service for SAP HANA database $instance on server $sys. | 原因: 指定された SAP HANA データベースの SAP Start Service の開始に失敗しました。 処置: 詳細については、SAP Start Service トレースファイル(sapstartsrv.logなど)を確認してください。 |
136208 | ERROR | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $rem_obj->{‘instance’} on server $rem_obj->{‘sys’} while attempting to identify the previous primary replication site. Please resolve the issue and bring the SAP HANA resource in-service on the system where the database should be registered as primary master. | 原因: 指定されたサーバーで SAP HANA システムレプリケーションモードを判別できず、以前のプライマリレプリケーションサイトを特定できませんでした。 処置: 詳細については、LifeKeeper ログファイルを確認してください。 |
136210 | ERROR | Failed start of SAP Start Service for SAP HANA database $rem_obj->{‘instance’} on server $rem_obj->{‘sys’}. Unable to stop the database on the server where it is currently registered as primary master. | 原因: 指定されたサーバー上の指定された SAP HANA データベースの SAP Start Service の開始に失敗し、その結果現在のプライマリー SAP HANA システムレプリケーションサイトでデータベースを停止できませんでした。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136212 | ERROR | Failed stop of SAP HANA database $rem_obj->{‘instance’} on server $rem_obj->{‘sys’} where it is currently registered as primary master. | 原因: 指定されたサーバー上の指定された SAP HANA データベースの停止に失敗しました。 処置: 詳細については、SAP HANA トレースファイルと LifeKeeper ログファイルを確認してください。 |
136217 | ERROR | Failed start of SAP HANA database $instance on server $sys. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースの起動に失敗した。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136220 | ERROR | Unable to register $sys as a secondary SAP HANA System Replication site for database $instance. The host name of the current primary replication site was not provided. | 原因: セカンダリレプリケーションサイトの登録時に、現在のプライマリSAP HANAシステムレプリケーションサイトのホスト名を入力しなかった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136233 | EMERG | WARNING: A temporary communication failure has occurred between servers $self->{'sys'} and $sys. Manual intervention is required in order to minimize the risk of data loss. To resolve this situation, please take one of the following resource hierarchies out of service: $self->{'tag'} on $self->{'sys'} or $eqv{$sys} on $sys. The server that the resource hierarchy is taken out of service on will become the standby server for SAP HANA database $self->{'instance'}. | 原因: 一時的な通信障害により、指定された同等の HANA リソースがそれぞれのホストサーバーで同時に In Service になった。 処置: セカンダリーレプリケーションサイトになるサーバーで、HANA リソース階層全体を Out of Service にしてください。そのサーバーでデータベースが停止されると、LifeKeeper は次の quickCheck サイクル中にデータベースをセカンダリレプリケーションサイトとして自動的に登録してください。 |
136234 | EMERG | WARNING: SAP HANA database $self->{'instance'} is running and registered as primary master on the following servers: $primary_node_list. Manual intervention is required in order to minimize the risk of data loss. To resolve this situation, please stop database $self->{'instance'} on the intended secondary replication site by running the command \'su – $self->{'sid_admin'} -c \"$SAP_CONTROL -nr $self->{'instance_number'} -function StopWait $HANA_STOP_WAIT 5\"\' on that server, then bring resource $self->{'tag'} in-service on the intended primary replication site. Once the resource is in-service, the stopped database will automatically be re-registered as a secondary replication site. | 原因: 指定された SAP HANA データベースが、2つのクラスターサーバーで同時にプライマリーマスターとして実行および登録されている。 処置: メッセージに示されているコマンドを使用して、スタンバイサーバー上のデータベースを停止してください。データベースが停止すると、LifeKeeperは自動的にスタンバイサーバーをセカンダリレプリケーションサイトとして登録してください。 |
136236 | ERROR | Failed to remove ${HANA_FLAG_DATA_OUT_OF_SYNC}_$tag flag on server $sys. | 原因: 指定されたサーバーで !HANA_DATA_OUT_OF_SYNC_ LifeKeeper フラグを削除できませんでした。指定された SAP HANA リソースは、これが削除されるまで指定されたサーバーで In-Service になりません。 処置: LifeKeeper が実行中で、完全に初期化されていることを確認してください。SAP HANA システムレプリケーションが同期していることを確認できた場合は、コマンド "/opt/LifeKeeper/bin/flg_remove -f '!HANA_DATA_OUT_OF_SYNC_<HANA Tag>'" を使用して out-of-sync フラグを手動で削除できます |
136238 | ERROR | Unable to create SAP HANA object. Resource system name and tag name must be provided. | 原因: SAP HANAオブジェクトの作成時に、サーバー名またはリソースタグ名のいずれかが欠落していた。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136239 | ERROR | Failed start of SAP Start Service for SAP HANA database $obj->{‘instance’} on server $obj->{‘sys’}. Unable to determine status of the database on $obj->{‘sys’}. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースのSAP Start Serviceの開始に失敗し、その結果データベースのステータスを判別できなかった。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136242 | ERROR | Unable to create SAP HANA object. At least one of the SAP HANA System Replication values is missing. | 原因: 指定したシステム上のデータベースに対し、SAP HANA システムレプリケーションパラメーターを特定できませんでした。 処置: SAP HANA システムレプリケーションが有効になっていて適切に構成されていること、データベースがクラスター内のすべてのサーバーで実行されていることを確認してください。 |
136243 | ERROR | Unable to locate the pingnfs utility ($pingnfs) on server $me. Please verify that this utility exists and is executable. | 原因: エクスポートされたNFS共有で利用可能なテストに使用されるpingnfsユーティリティが見つからない。 処置: pingnfsユーティリティが所定の場所に存在し、実行可能であることを確認してください。 |
136245 | ERROR | Critical NFS shares being exported by server $sys ($export_list) are not currently available. Please verify that the NFS server is alive and that all NFS-related services are running. | 原因: 指定した重要なNFS共有ファイルシステムが現在利用できない。 処置: ファイルシステムをエクスポートするNFSサーバーが稼働していること、および必要なNFS関連サービスがすべて実行されていることを確認してください。 |
136248 | ERROR | Unable to open file $crit_mount_file on server $me. Please verify that this file exists and is read-enabled. | 原因: 指定したサーバー上の重要なNFS共有のマウント情報を含むファイルを開けない。 処置: ファイルが指定した場所に存在し、読み取りが有効になっていることを確認してください。 |
136253 | ERROR | The SAP HANA \"takeover with handshake\" feature is available only for SAP HANA versions 2.0 SPS04 and greater. Database $self->{'instance'} cannot be resumed. | 原因: 一時停止されたデータベースの再開は、2.0 SPS04より前のSAP HANAバージョンではサポートされていない。 処置:「Takeover with Handshake」に関連する機能を使用するには、SAP HANA 2.0 SPS04以降にアップグレードしてください。 |
136254 | ERROR | Attempt to resume suspended primary database $self->{'instance'} on server $self->{'sys'} failed with exit code $ret. | 原因: 指定したサーバーで中断されたデータベースインスタンスを再開しようとしたら失敗した。 処置:LifeKeeperとSAPのログファイルを調べて、失敗の原因を特定してください。操作を再試行するか、対応するLifeKeeperリソースを別のサーバーでIn-Serviceにしてください。 |
136258 | ERROR | Attempt to register server $node as the secondary SAP HANA System Replication site for database $self->{'instance'} failed with exit code $ret. | 原因: 指定したサーバーを、指定したデータベースインスタンスのセカンダリ SAP HANA システムレプリケーションサイトとして登録しようとしたが失敗しました。 処置:LifeKeeper と SAP のログファイルを調べて障害の原因を特定し、見つかった問題を手動で修正してください。SAP HANA リソースが In-Service になっている間、LifeKeeper は自動的に、セカンダリ HSR ロールへのバックアップサーバーの登録試行を継続してください。 |
136263 | ERROR | Usage: $usage | 原因: SAP HANAリソースのリストアスクリプトの引数が無効。 処置:次の形式で適切な引数を指定してください: |
136265 | ERROR | Error getting resource information for $tag on server $me. | 原因: 指定されたサーバーの指定されたSAP HANAリソースに関する情報を取得できなかった。 処置:指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136266 | ERROR | The resource $tag protecting SAP HANA database $instance is not in sync. To protect the data LifeKeeper will not restore the resource on $me. Please restore the resource on the previous source server to allow the resync to complete. | 原因: SAP HANA システムレプリケーションは、バックアップサーバー上でデータベースリソースを In Service にする前に同期されていませんでした。 処置: 前のプライマリーサーバーで SAP HANA リソースを In Service にし、再同期を完了できるようにしてください。 |
136275 | ERROR | Failed to determine SAP HANA System Replication mode for database $instance on server $me. | 原因: 指定されたサーバー上の指定されたデータベースのSAP HANAシステムレプリケーションモードを判定できなかった。 処置: 詳細については、SAP HANAトレースファイル(例:nameserver_<hostname>.xxxxx.xxx.trc)およびLifeKeeperログファイルを確認してください。 |
136277 | ERROR | The resource $tag protecting SAP HANA database $instance has the last owner flag on $other->{‘sys’} indicating there are changes on $other->{‘sys’} that have not replicated to all systems. | 原因: データが同期されていないシステムが複数あります。これは SAP HANA リソースが In Service となっており、データがすべてのスタンバイシステムに同期されていないためです。 処置: どのシステムに最適なデータがあるか、または最大のデータがあるかを手動で判断してください。SAP HANAリソースは、最適なデータを持つシステムで強制的に in-service にする必要があります。 |
136300 | WARN | Detected unsupported NFS version \"$found_nfs_vers\" for mount point $mount_loc from shared file system $mount_dev. The default NFS version specified by the pingnfs utility will be used instead. If necessary, this value can be overridden by setting the NFS_VERSION parameter in /etc/default/LifeKeeper. | 原因: NFS バージョンはサポートされていません。 LifeKeeper は、バージョン 2、3、および 4 をサポートしています。 処置: サポートされている NFS バージョンを使用してください。 |
136301 | WARN | Detected unsupported NFS transport protocol \"$found_proto\" for mount point $mount_loc from shared file system $mount_dev. The default protocol specified by the pingnfs utility will be used instead. If necessary, this value can be overridden by setting the NFS_RPC_PROTOCOL parameter in /etc/default/LifeKeeper. | 原因: NFS プロトコルはサポートされていません。 LifeKeeper は tcp と udp をサポートしています。 処置: サポートされているプロトコルを使用してください。 |
136302 | ERROR | Failed to create $action_flag flag on server $node. | 原因: LifeKeeper HANA Recovery Kit はフラグを作成できませんでした。 処置: LifeKeeper ログとシステムログでエラーを確認してください。 |
136351 | ERROR | Usage: $usage | 原因: SAP HANA resource quickCheck スクリプトの引数が無効です。 処置: 次の形式で適切な引数を指定してください: |
136353 | ERROR | Error getting resource information for $tag. | 原因: 指定された SAP HANA リソースに関する情報を取得できませんでした。 処置: 指定されたタグを持つ SAP HANA リソースが指定されたサーバーに存在することを確認してください。 |
136354 | EMERG | The replication mode of the SAP HANA database $instance corresponding to resource $tag was modified outside of LifeKeeper and is no longer registered as primary master on server $me. Please bring the SAP HANA resource in-service on the server where the database should be registered as primary master. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたデータベースの SAP HANA システムレプリケーションモードが、LifeKeeper の外部で変更されています。 処置: プライマリーマスターとして登録する必要があるサーバーで、SAP HANA リソースを In Service にしてください。 |
136363 | EMERG | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $instance corresponding to resource $tag on server $me. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたサーバーで SAP HANA システムレプリケーションモードを判定できませんでした。 処置: 詳細については、LifeKeeper ログファイルを確認してください。 |
136375 | EMERG | An NFS server exporting a critical shared file system for resource $tag is currently unavailable. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 重要な NFS 共有ファイルシステムが現在利用不可です。 処置: NFS サーバーが稼働していること、および必要な NFS 関連サービスがすべて実行されていることを確認してください。 |
136376 | EMERG | WARNING: LifeKeeper resource $tag is designed for use in situations where SAP HANA System Replication (HSR) is disabled, but HSR was found to be enabled on server $me. Please ensure that the correct LifeKeeper resource type is being used for your current SAP HANA configuration. | 原因: 指定した LifeKeeper リソースは、HANA システムレプリケーション(HSR)が無効になっている SAP HANA データベース環境を保護するように設計されているが、指定したサーバーでは HSR が有効になっています。 処置: SAP HANA の構成に応じて、正しい LifeKeeper リソースタイプが使用されていることを確認してください。HSR が無効になっている SAP HANA 構成から、HSR が有効になっている SAP HANA 構成に移行した場合は、対応する SAP HANA リソースを LifeKeeper で再作成する必要があります。 |
136377 | EMERG | SAP HANA database $instance corresponding to resource $tag is currently suspended on server $me due to actions performed outside of LifeKeeper. In order to resume the suspended database, execute the command 'su – $obj->{'sid_admin'} -c \"$obj->{'hana_util'} -sr_resumeSuspendedPrimary\"' on server $me. Once the suspended database has been resumed, LifeKeeper will automatically register the other servers in the cluster as secondary replication sites. Otherwise, please bring resource $tag in-service on the server where the database should be registered as primary master. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定したサーバー上の SAP HANA データベースインスタンスが、LifeKeeperの外部で行われた操作により停止されました。 処置: 対応する LifeKeeper リソースが現在 In-Service(Active)になっているサーバー上で一時停止中のデータベースを再開する場合は、メッセージに記載されているコマンドを実行してください。それ以外の場合は、目的のプライマリーレプリケーションサイトで LifeKeeper SAP HANA リソースを In-Service にしてください。 |
136450 | ERROR | Usage: $usage | 原因: SAP HANA remove スクリプトに無効な引数が指定されています。 処置: 次の形式で適切な引数を指定してください: |
136454 | ERROR | Error getting resource information for $tag. | 原因: 指定された SAP HANA リソースに関する情報を取得できませんでした。 処置: 指定されたタグを持つ SAP HANA リソースが指定されたサーバーに存在することを確認してください。 |
136456 | ERROR | Failed start of SAP Start Service for SAP HANA database $instance on server $me. | 原因: 指定された SAP HANA データベースの SAP Start Service を開始できませんでした。 処置: 詳細については、SAP Start Service トレースファイル(sapstartsrv.logなど)を確認してください。 |
136459 | EMERG | WARNING: LifeKeeper resource $tag is designed for use in situations where SAP HANA System Replication (HSR) is disabled, but HSR was found to be enabled on server $me. Please ensure that the correct LifeKeeper resource type is being used for your current SAP HANA configuration. | 原因: 指定した LifeKeeper リソースは、HANA システムレプリケーション(HSR)が無効になっている SAP HANA データベース環境を保護するように設計されていますが、指定したサーバーでは HSR が有効になっています。 処置: SAP HANA の構成に応じて、正しい LifeKeeper リソースタイプが使用されていることを確認してください。HSR が無効になっている SAP HANA 構成から、HSR が有効になっている SAP HANA 構成に移行した場合は、対応する SAP HANA リソースを LifeKeeper で再作成する必要があります。 |
136462 | ERROR | Failed to remove flag \"${hana::HANA_FLAG_LEAVE_DB_RUNNING}_$tag\" on server $me. This may cause subsequent remove actions for resource $tag on server $me to unintentionally fail to stop the database. | 原因: 指定したサーバーでLifeKeeperの !volatile!hana_leave_db_running_<tag> フラグを削除できない。 処置: 指定したサーバーでコマンド「/opt/LifeKeeper/bin/flg_remove -f ‘!volatile!hana_leave_db_running_<tag>’」を実行して、フラグを手動で削除してください。フラグが存在する間は、指定したサーバー上のSAP HANAリソースのOut-of-service操作では、保護対象のデータベースインスタンスが実行されたままになります。 |
136525 | ERROR | $cmd::The name of the machine was not specified. | 原因: comm_up スクリプトが必須パラメーターなしで呼び出されました。 処置: LifeKeeper の内部エラーです。 |
136528 | ERROR | $cmd::HANA comm_up timed out, will not in-service AUTORES_ISP resources. | 原因: HANA comm_up スクリプトは、LifeKeeper の初期化 (LK_INITDONE) が完了するのを待ってから、AUTORES_ISP リソースを restore (in-service) します。 このエラーは、割り当てられた時間内に初期化が完了しなかったことを示しています。 処置: ログを確認して、初期化が時間内に終了しない原因を特定してください。 追加の時間が必要な場合は、/etc/default/LifeKeeper の HANA_STARTUP_TIMEOUT を変更してください。 |
136550 | ERROR | Usage: $usage | 原因: HANAリソース回復スクリプトの引数が無効。 処置: 有効なHANA LifeKeeperリソースタグ名とリソースIDの両方を入力してください。 |
136555 | ERROR | Error getting resource information for $tag on server $me. | 原因: 指定されたサーバー上の指定されたHANAリソースに関する情報を取得できなかった。 処置: サーバーがオンラインで、LifeKeeperが実行されており、HANAリソースが存在することを確認してください。 |
136556 | EMERG | The replication mode of the SAP HANA database $instance corresponding to resource $tag was modified outside of LifeKeeper and is no longer registered as primary master on server $me. Please bring the SAP HANA resource in-service on the server where the database should be registered as primary master. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたデータベースのSAP HANAシステムレプリケーションモードが、LifeKeeperの外部で変更されている。 処置: プライマリマスターとして登録する必要があるサーバーで、SAP HANAリソースをIn Serviceにしてください。 |
136558 | EMERG | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $instance corresponding to resource $tag on server $me. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたサーバー上の指定されたデータベースに対し、SAP HANAシステムレプリケーションモードを決定でなかった。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136559 | ERROR | Resource $tag is no longer ISP on server $me. Exiting $cmd for $tag. | 原因: 指定されたSAP HANAリソースが、指定されたサーバー上でISPではなくなった。 処置: 詳細については、LifeKeeperログファイルを確認してください。 |
136650 | ERROR | Usage: $usage | 原因: SAP HANA hana_stop_all_dbs スクリプトに無効な引数が指定されている。 処置: 次の形式で適切な引数を指定してください: |
136654 | ERROR | Error getting resource information for $tag. | 原因: 指定されたSAP HANAリソースに関する情報を取得できなかった。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーに存在することを確認してください。 |
136658 | ERROR | Failed start of SAP Start Service for SAP HANA database $x->{‘instance’} on server $x->{‘sys’}. Could not determine status of SAP HANA DB on $x->{‘sys’}. | 原因: 指定されたSAP HANAデータベースのSAP Start Serviceの開始に失敗した。 処置: 詳細については、SAP Start Serviceトレースファイル(sapstartsrv.logなど)を確認してください。 |
136661 | ERROR | Failed stop of SAP HANA database $x->{‘instance’} on server $x->{‘sys’}. | 原因: 指定されたサーバー上の指定されたSAP HANAデータベースの停止に失敗した。 処置: 詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136673 | ERROR | Usage: $usage | 原因: SAP HANAのhana_takeover_with_handshakeスクリプトで無効な引数が指定された。 処置: 次の形式で適切な引数を指定してください: -t <tag> [-s <target server>] [-b] |
136674 | ERROR | Unable to remove the \"${hana::HANA_FLAG_LEAVE_DB_RUNNING}_$tag\" flag on server $isp_node. This may cause subsequent remove actions for resource $tag on server $isp_node to unexpectedly fail to stop the database. | 原因: 指定したサーバーでLifeKeeperの !volatile!hana_leave_db_running_<tag> フラグを削除できない。 処置: 指定したサーバーでコマンド「/opt/LifeKeeper/bin/flg_remove -f ‘!volatile!hana_leave_db_running_<tag>’」を実行して、フラグを手動で削除してください。フラグが存在する間は、指定したサーバー上のSAP HANAリソースのOut-of-service操作では、保護対象のデータベースインスタンスが実行されたままになります。 |
136675 | ERROR | Script $cmd exited unexpectedly due to signal \"$sig\" on server $me. This may leave the $tag resource hierarchy as well as SAP HANA System Replication in an unexpected state. Please verify that the cluster resources are in the expected state. | 原因: hana_takeover_with_handshake スクリプトが、指定したサーバー上の指定したシグナルにより、予期せず終了した。 処置: SAP HANA クラスターリソースが期待通りの状態であることを確認してください。そうでない場合は、見つかった問題を修正し、目的のプライマリーサーバーで SAP HANA リソース階層を In-Service にしてください。 |
136677 | ERROR | Unable to find equivalent SAP HANA resource corresponding to $tag on server $target_node. | 原因: 指定したサーバー上の指定したリソースに対応する同等のSAP HANAリソースが見つからない。 処置: 指定したリソースタグが正しく、リソースが指定したターゲットサーバーに拡張されており、LifeKeeper がターゲットサーバー上で実行されて完全に初期化されていることを確認してください。 |
136678 | ERROR | Unable to obtain information about equivalent SAP HANA resource $tag on server $target_node. Verify that LifeKeeper is running and fully initialized. | 原因: 指定したサーバー上の指定したリソースに対応する同等のSAP HANAリソースが見つからない。 処置: 指定したリソースタグが正しく、リソースが指定したターゲットサーバーに拡張されており、LifeKeeper がターゲットサーバー上で実行されて完全に初期化されていることを確認してください。 |
136679 | ERROR | Resource $tag is not a SAP HANA resource. | 原因: 指定したリソースがSAP HANA(データベース/hana)リソースではない。 処置: リソースタグが正しいことを確認してください。 |
136680 | ERROR | Resource $tag is designed for use in an environment where SAP HANA System Replication is disabled. Takeover with handshake cannot be performed for this resource type. Please use the standard \"In Service…\" command instead. | 原因: 「Takeover with Handshake」に関連する機能は、SAP HANAシステムレプリケーションが有効な環境でのみ使用できる。 処置: 標準の「In Service…」オプションを使用して、SAP HANAリソースをIn-Serviceにしてください。 |
136681 | ERROR | SAP HANA resource $tag is not currently in-service on any server in the cluster. The resource must be in-service and SAP HANA System Replication must be in-sync before performing a takeover with handshake. | 原因: 「Takeover with Handshake」の試行中、指定したSAP HANAリソースがクラスター内のどのサーバーでもIn-Serviceになっていない。 処置: 目的のプライマリーサーバーでSAP HANAリソースをIn-Serviceにしてください。 |
136682 | ERROR | SAP HANA resource $tag is currently in-service on multiple servers: $isp_node_list. The resource must be in-service on only one server and SAP HANA System Replication must be in-sync before performing a takeover with handshake. | 原因: 「Takeover with Handshake」の試行中、指定したSAP HANAリソースがクラスター内の複数のサーバーでIn-Serviceになっている。 処置: プライマリーマスターとして登録する予定のサーバーを除くすべてのサーバーで、リソースをOut-of-serviceにしてください。 |
136684 | ERROR | Unable to create internal SAP HANA object for resource $tag on server $target_node. Verify that all necessary file systems are mounted and that LifeKeeper is running and fully initialized on $target_node. | 原因: 指定したサーバー上の指定したインスタンスを表す内部HANAオブジェクトを作成できない。 処置: データベースインスタンスが正しくインストールされ、必要なファイルシステムがすべてマウントされていることを確認してください。 |
136685 | ERROR | Takeover with handshake is only supported in SAP HANA versions 2.0 SPS04 and greater. The SAP HANA software must be upgraded in order to use this feature. Please use the standard \"In Service…\" command instead. | 原因: 基礎となるSAP HANAデータベースのバージョンが2.0 SPS04未満の場合、「Takeover with Handshake」機能は使用できない。 処置: 「Takeover with Handshake」機能を使用するには、SAP HANA 2.0 SPS04以降にアップグレードしてください。 |
136686 | ERROR | Takeover with handshake cannot be performed for database $target_obj->{'instance'} on server $target_node because the database is not currently running and registered as primary on any other server in the cluster. | 原因: 「Takeover with Handshake」の試行中、指定したSAP HANAデータベースインスタンスがクラスター内のどのサーバーでも実行されておらず、プライマリーマスターとして登録されていない。 処置: 目的のプライマリーサーバーで対応するSAP HANAリソースをIn-Serviceにしてください。 |
136687 | ERROR | SAP HANA database $target_obj->{'instance'} is running and registered as primary on more than one server in the cluster. Please resolve this situation and reattempt the takeover. | 原因: 「Takeover with Handshake」の試行中、指定したSAP HANAデータベースインスタンスが複数のサーバーでプライマリーとして実行および登録されている。 処置: データベースインスタンスがすでに実行されており、対象のプライマリーサーバーにプライマリーとして登録されている場合は、対応するLifeKeeperリソースをそのサーバーで In-Service にしてください。そうでない場合は、LifeKeeper で現在 In-Service になっているサーバーを除くすべてのサーバーでデータベースインスタンスを停止し、LifeKeeper がシステムレプリケーションを再開できるようにしてから、テイクオーバーを再試行してください。 |
136689 | ERROR | Unable to create internal SAP HANA object for resource $tag on server $isp_node. Verify that all necessary file systems are mounted and that LifeKeeper is running and fully initialized on $isp_node. | 原因: 指定したサーバー上の指定したインスタンスを表す内部HANAオブジェクトを作成できない。 処置: データベースインスタンスが正しくインストールされ、必要なファイルシステムがすべてマウントされていることを確認してください。 |
136690 | ERROR | Unable to set the ${hana::HANA_FLAG_LEAVE_DB_RUNNING}_$tag flag on server $isp_node. Aborting takeover with handshake attempt for database $target_obj->{'instance'} on server $target_node. | 原因: 「Takeover with Handshake」の試行中に、指定したサーバーで、LifeKeeperフラグ「!volatile!hana_leave_db_running_<tag>」を設定できなかった。 処置: 詳細については、LifeKeeper のログファイルを確認してください。見つかった問題を修正し、テイクオーバーを再試行してください。 |
136692 | ERROR | Takeover with handshake for database $target_obj->{'instance'} failed on server $target_node. | 原因: 指定したターゲットサーバー上の指定したSAP HANAデータベースインスタンスに対する「Takeover with Handshake」の試行が失敗した。 処置: /etc/default/LifeKeeper で HANA_HANDSHAKE_TAKEOVER_FAILBACK=true が指定されている場合、SAP HANAリソース階層は以前のデータベースホストサーバーで自動的にIn-Serviceに戻ります。そうでない場合は、SAP HANAリソース階層を対象のプライマリーサーバーで手動でIn-Serviceにする必要があります。 |
136695 | ERROR | Resource $tag does not exist on server $me. | 原因: 指定したリソースが指定したサーバーに存在しない。 処置: リソースタグが正しいことを確認してください。 |
136696 | ERROR | Unable to verify the status of resource $tag on server $target_node. Assuming that it is not in-service. | 原因: 「Takeover with Handshake」の成否の確認中に、指定したサーバー上の指定したリソースのステータスを判別できなかった。 処置: 指定したサーバー上でLifeKeeperが実行され、完全に初期化されていること、およびローカルサーバーとターゲットサーバー間のコミュニケーションパスがアクティブであることを確認してください。/etc/default/LifeKeeper で HANA_HANDSHAKE_TAKEOVER_FAILBACK=true が指定されている場合、SAP HANAリソース階層は自動的に以前のデータベースホストサーバーでIn-Serviceになります。そうでない場合は、SAP HANAリソース階層を対象のプライマリーサーバー上で手動でIn-Serviceにする必要があります。 |
136697 | ERROR | Resource $res was not successfully brought in-service on server $target_node. | 原因: 「Takeover with Handshake」の試行中に、指定したリソースが指定したサーバーでIn-Serviceにならなかった。 処置: etc/default/LifeKeeper で HANA_HANDSHAKE_TAKEOVER_FAILBACK=true に設定されている場合、SAP HANA リソース階層は自動的に以前のデータベースホストサーバーでサービスを In-Service にしてください。そうでない場合は、SAP HANA リソース階層を対象のプライマリーサーバーで手動で In-Service にする必要があります。 |
136698 | ERROR | LifeKeeper is not running or is not fully initialized on server $me. | 原因: 「Takeover with Handshake」の試行中に、LifeKeeperが指定したサーバーで実行されていないか、完全に初期化されていない。 処置: LifeKeeperを /opt/LifeKeeper/bin/lkstart で起動するか、完全に初期化してから、テイクオーバーを再試行してください。 |
136699 | ERROR | Unknown server $target_node. | 原因: 指定したサーバーのホスト名が認識されない。 処置: サーバーのホスト名が正しく、ローカルサーバーとターゲットサーバーの間でコミュニケーションパスが作成されていることを確認してください。 |
136700 | ERROR | Usage: $usage | 原因: SAP HANA remoteregisterdbスクリプトに無効な引数が与えられました。 処置: 次の形式で適切な引数を指定してください: remoteregisterdb -d <tag> -n <id> |
136705 | ERROR | Unable to obtain information about resource $tag on server $me. Exiting $cmd for $tag. | 原因: 指定されたサーバー上の指定されたSAP HANAリソースに関する情報を取得できませんでした。 処置: 指定されたリソースタグが正しいこと、リソースが指定されたサーバーに存在すること、必要なすべてのファイルシステムがマウントされていること、LifeKeeperが実行中で、指定されたサーバーで完全に初期化されていることを確認してください。 |
136706 | ERROR | Resource $tag is no longer ISP on server $me. Exiting $cmd for $tag. | 原因: SAP HANAリソースが特定のサーバーでIn-Service(ISP)になっていないため、SAP HANA remoteregisterdbスクリプトが終了しています。 処置: 対応は必要ありません。 |
136707 | ERROR | The $cmd event is intended for use only in environments in which SAP HANA System Replication is enabled. Exiting $cmd for $tag. | 原因: SAP HANA remoteregisterdbイベントは、指定されたSAP HANAリソースによって保護されているデータベースに対してSAP HANAシステムレプリケーションが無効になっていることを検出しました。 処置: remoteregisterdbスクリプトが実行されていたサーバーでSAP HANAシステムレプリケーションが有効になっていることを確認してください。必要に応じて、SAP HANA管理ユーザーとしてコマンド 'hdbnsutil -sr_enable —name=<Site Name>' を実行することにより、システムレプリケーションを有効にすることができます。 |
136708 | ERROR | Error getting resource information for $tag on server $me. Exiting $cmd for $tag. | 原因: 指定されたサーバーの指定されたSAP HANAリソースに関する情報を取得できませんでした。 処置: 指定されたタグを持つSAP HANAリソースが指定されたサーバーにあることを確認してください。 |
136709 | EMERG | LifeKeeper was unable to determine the SAP HANA System Replication mode for database $instance corresponding to resource $tag on server $me. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたサーバーの指定されたデータベースに対して、SAP HANAシステムレプリケーションモードを検出できませんでした。 処置:詳細については、SAP HANAトレースファイルとLifeKeeperログファイルを確認してください。 |
136710 | EMERG | The replication mode of the SAP HANA database $instance corresponding to resource $tag was modified outside of LifeKeeper and is no longer registered as primary master on server $me. Please bring the SAP HANA resource in-service on the server where the database should be registered as primary master. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたデータベースのSAP HANAシステムレプリケーションモードがLifeKeeperの外部で変更されました。 処置:プライマリーマスターとして登録する必要のあるサーバーで、SAP HANAリソースをIn-Serviceにしてください。 |
136711 | EMERG | SAP HANA database $instance corresponding to resource $tag is currently suspended on server $me due to actions performed outside of LifeKeeper. Please take the SAP HANA resource out of service on server $me and bring it in-service on the server where the database should be registered as primary master. Bringing resource $tag back in-service on $me will resume the suspended database. Resource monitoring for $tag will be suspended until the issue is resolved. | 原因: 指定されたたサーバー上のSAP HANAデータベースインスタンスが、LifeKeeperの外部で行われた操作により一時停止されています。 処置: 対応するLifeKeeperリソースが現在In-Service(Active)になっているサーバー上で一時停止中のデータベースを再開する場合は、メッセージに記載されているコマンドを実行してください。それ以外の場合は、目的のプライマリーレプリケーションサイトでLifeKeeper SAP HANAリソースをIn-Serviceにしてください。 |
136732 | ERROR | There is no LifeKeeper protected resource with tag $tag on system $me. | 原因: HANA canfailover スクリプトは、HANA リソースではないタグで呼び出されました。 処置: 処置は必要ありません。 |
137000 | ERROR | PowerShell is not installed. | |
137001 | ERROR | PowerCLI is not installed. | |
137002 | ERROR | A valid network interface was not found. | |
137005 | ERROR | Failed to attach VMDK. | |
137010 | ERROR | Failed to detach VMDK. | |
137020 | ERROR | Failed to execute VMDK status checker daemon. | |
137030 | ERROR | Disk not specified. | |
137031 | ERROR | Cannot get disk uuid for $Disk. Please check your ESXi settings. | |
137032 | ERROR | PowerCLI failed. %s | |
137034 | ERROR | Cannot bring VMDK resource \"%s\" in service on server \"%s\". | |
137037 | ERROR | This system is not a VMware guest. | |
137050 | ERROR | Failed to connect to ESXi server $addr. | |
137051 | ERROR | There is no ESXi server connected. | |
137055 | ERROR | Cannot determine ESXi VM ID because multiple network interfaces were found with the MAC address $MAC_ADDR. | |
137057 | ERROR | Usable SCSI controller not found. | |
137058 | ERROR | Cannot find VMDK with ID $UUID. | |
137059 | ERROR | This guest has snapshots present. | |
137060 | ERROR | The VMDK with ID $UUID cannot be attached to this guest. | |
137061 | ERROR | The virtual storage controller has an incompatible sharing mode configured. | |
137068 | ERROR | The VMDK detection failed. Retry count exceeded. | |
137070 | ERROR | Connect failed. | |
137071 | ERROR | Get-LocalVM failed. | |
137072 | ERROR | The VMDK has been detached remotely. This server has lost ownership. | |
137075 | ERROR | Cannot find virtual SCSI controller $CONTROLLER. | |
137076 | ERROR | The virtual storage controller has an incompatible sharing mode configured. | |
137077 | ERROR | Cannot find VM with MAC address $MAC_ADDR. | |
137078 | ERROR | Cannot find VM with MAC address $MAC_ADDR. | |
137101 | WARN | Partition information not defined for %s on %s. Retry. | |
137102 | ERROR | Partition information not defined for %s on %s. | |
137105 | ERROR | Device not specified. | |
137106 | ERROR | Cannot get device uuid for $Device. Please check your ESXi settings. | |
137107 | ERROR | %s is not shareable with any machine. | |
137111 | ERROR | Failed to create dependency \"%s\"-\"%s\" on machine \"%s\". | |
137112 | ERROR | Cannot bring VMDKP resource \"%s\" in service on server \"%s\". | |
138003 | FATAL | $msg | 原因: このプロセスのスタックトレースを記録します。 処置: なし |
139000 | ERROR | Cannot find the "oci" command in directories of the PATH. Please confirm that it is installed and the PATH is set correctly. |
原因: 処置: |
139012 | ERROR | \"oci\" command(request-id:%s) failed with code %s, message \"%s\" and status %s |
原因: 処置: ステータスコードやメッセージ内容を元に |
139013 | ERROR | Failed to assign $ip, error:\"$result\" |
原因: $ip の割り当てに失敗しました。 処置: $result の内容を元にエラーの原因を解決してください。 |
139022 | ERROR | \"oci\" command(request-id:%s) failed with code %s, message \"%s\" and status %s |
原因: 処置: ステータスコードやメッセージ内容を元に |
139023 | ERROR | Failed to unassign $ip, error:\"$result\" |
原因: $ip の割り当て解除に失敗しました。 処置: $result の内容を元にエラーの原因を解決してください。remove 処理が実行されるより前に $ip の割り当てが解除されていた場合は、リソースの状態が OSU であることと、OCI コンソール上で $ip が対象の VNIC に割り合てられていないことを確認してください。 |
139032 | ERROR | \"oci\" command(request-id:%s) failed with code %s, message \"%s\" and status %s |
原因: 処置: ステータスコードやメッセージ内容を元に |
139033 | ERROR | Failed to \"$ocicmdstr\", unknown error:\"$ip_list\" |
原因: コード 139032 以外の原因で 処置: unknown error:"$ip_list" の内容を元に対応してください。 |
139034 | ERROR | There is no secondary IPs on $device. |
原因: $device にセカンダリIPアドレスが割り当てられていません。 処置: ローカルリカバリーが有効の場合は、ローカルリカバリーが実行されたこと、それによって障害から復旧したことを確認してください。 |
139035 | ERROR | $ip is not assigned to $device. |
原因: $ip が $device に割り当てられていません。 処置: ローカルリカバリーが有効の場合は、ローカルリカバリーが実行されたこと、それによって障害から復旧したことを確認してください。 |
139042 | ERROR | \"oci\" command(request-id:%s) failed with code %s, message \"%s\" and status %s |
原因: 処置: ステータスコードやメッセージ内容を元に |
139043 | ERROR | Failed to assign $ip, error:\"$result\" |
原因: $ip の割り当てに失敗しました。 処置: $result の内容を元にエラーの原因を解決してください。 |
139060 | ERROR | $cmd is invalid. |
原因: $cmd が不正です。 処置: お問い合わせください。 |
139061 | ERROR | OCIVIP does not support IPv6. |
原因: OCIVIP リソースは IPv6 での利用をサポートしません。 処置: IPv4 をご利用ください。 |
139062 | ERROR | $cmd is invalid. |
原因: $cmd が不正です。 処置: お問い合わせください。 |
139063 | ERROR | IPv$ipversion is unknown version. |
原因: IP アドレスのバージョンが不正です。 処置: IPv4 をご利用ください。 |
139070 | ERROR | Failed to access the $IMDS_URL with the curl command, status code is $status_code. |
原因: $IMDS_UDL への curl が失敗しました。 処置: $IMDS_URL への curl が正常終了することを確認してください。 |
139071 | ERROR | Failed to decode JSON, error:\"$e\". |
原因: JSON のデコードに失敗しました。 処置: Instance Meta Data Serviceから取得した結果が JSON 形式であることを確認してください。 |
139073 | ERROR | Cannot find the vnicId of $device. |
原因: $device に対応する vnicId が取得できませんでした。 処置: Instance Meta Data Service の JSON レコードに vnicId が存在するかどうか確認してください。 |
139074 | ERROR | Cannot find the subnetcidr of $device. |
原因: $device に対応する subnetCidrBlock が取得できませんでした。 処置: Instance Meta Data Service の JSON レコードに subnetcidr が存在するかどうか確認してください。 |
139075 | ERROR | Cannot find the vRouterIp of $device. |
原因: $device に対応する virtualRouterIp が取得できませんでした。 処置: Instance Meta Data Service の JSON レコードに virtualRouterIp が存在するかどうか確認してください。 |
139080 | ERROR | \"oci\" command(request-id:%s) failed with code %s, message \"%s\" and status %s |
原因: 処置: ステータスコードやメッセージ内容を元に |
139081 | ERROR | Failed to get subnet id, error:\"$subnetid\" |
原因: subnet id の取得に失敗しました。 処置: 以下のコマンドで正しく情報を取得できるかどうか確認してください。 $vnicid にはノードに割り当てられている各 VNIC の VNIC-ID(OCID) が該当します。 |
139100 | ERROR | IP address is not specified. |
原因: IP アドレスが指定されていません。 処置: IP アドレスが指定されていることを確認してください。 |
139101 | ERROR | Device is not specified. |
原因: デバイスが指定されていません。 処置: デバイスが指定されていることを確認してください。 |
139105 | ERROR | Cannot bring OCIVIP resource $Tag in service on server $SysName. |
原因: $SysName 上の OCIVIP リソース $Tag の restore に失敗しました。 処置: restore 処理に関するログを参照の上ご対応ください。 |
139111 | ERROR | IP-$ip already exists, and device and netmask are inconsistent with those of $ocivipTag. |
原因: OCIVIP リソースの IP アドレスに対応する IP リソースが存在していますが、デバイス情報やネットマスクの情報に矛盾があります。 処置: 既存の IP リソースを OCIVIP リソースと同一の設定になるように設定を変更し、 OCIVIP リソースと依存関係を作成してください。 |
139112 | ERROR | Cannot bring IP resource $iptag in service on server $SysName. |
原因: $SysName 上の OCIVIP リソースに対応する IP リソース $iptag の restore に失敗しました。 処置: IPリソースの設定を見直し、 IP リソースの restore が成功することを確認してください。そのうえで OCIVIP リソースと依存関係を作成してください。 |
139200 | ERROR | A resource with the specified tag name "%s" already exists on the target machine "%s". |
原因: 拡張先のノードに、指定したタグ名のリソースが既に存在します。 処置: 別のタグ名をご利用いただくか、拡張先ノードの対象タグ名のリソースを削除してください。 |
139201 | ERROR | Template resource "%s" does not exist on the server "%s". |
原因: 拡張元として指定したリソースがノード上に存在しません。 処置: タグ名を正しく指定してください。 |
139250 | ERROR | Failed to valuenetOnOCI, error: \"$stderr_log\". |
原因: 処置: $stderr_log の箇所に実際のエラー内容が出力されています。その内容を元にご対応ください。 |
140001 | FATAL | cmd:$tag:Insufficient input parameters. \n%s | |
140002 | FATAL | cmd:$tag:END failed create of %s on system %s with signal $sig. | |
140005 | FATAL | cmd:$tag:Resource already exists on machine %s | |
140006 | FATAL | cmd:$tag:ins_create failed on machine %s | |
140007 | FATAL | cmd:$tag:Failed restore of tag %s on system %s | |
140020 | FATAL | cmd::Insufficient input parameters. \n%s | |
140021 | ERROR | cmd:$template_tag:Template resource \"$template_tag\" on server \"$template_sys\" does not exist | |
140030 | FATAL | cmd:$tag:Insufficient input parameters. \n%s | |
140031 | FATAL | cmd:$tag:END failed extend of "%s" due to a \"%s\" signal. | |
140033 | ERROR | cmd:$template_tag:Template resource \"$template_tag\" on server \"$template_sys\" does not exist | |
140036 | FATAL | cmd:$tag:Resource already exists on machine %s | |
140037 | FATAL | cmd:$tag:ins_create failed on machine %s | |
140050 | FATAL | cmd::Port number cannot be empty. Specify the TCP/IP port number (any value from 1024 to 65535 | |
140051 | FATAL | cmd::Specify the TCP/IP port number (any value from 1024 to 65535 | |
140060 | FATAL | cmd::$usage | |
140061 | FATAL | cmd::resource \"$tag\" on server \"$lbhc::cmd\" does not exist | |
140062 | FATAL | cmd::LK::ins_setinfo failed | |
140070 | FATAL | $usage | |
140071 | FATAL | Port number is not valid. | |
140073 | FATAL | Error getting resource information for $tag on server $lbhc::me. | |
140200 | FATAL | Unable to create LBHC object ($sys, $tag). | |
140202 | ERROR | Daemon already started but the pidfile does not match. | 原因: restore 時にデーモンがすでに実行されているが、pidfile が一致しないことを示します。 処置: 実行中のデーモンを停止してから、 restore を試行してください。 |
140204 | FATAL | Could not start the daemon by \"$cmdline\". | |
140207 | ERROR | Error deleting resource \"$otherTag\" on \"$otherSys\" with return code of \"$err\". | |
140208 | WARN | Resource out of service | 原因: quickCheck は実行されていますが、リソースは ISP (In-Service Protected) ではありませんでした。 |
140209 | ERROR | Daemon not running. | 原因: quickCheckの確認で、デーモンが停止していました。 処置: ローカルリカバリーを試みます。 |
140210 | ERROR | Daemon is running but the pidfile does not match. | 原因: quickCheck の確認で、デーモンは起動していましたが pidfile が一致しませんでした。 処置: ローカルリカバリーを試みます。 |
140211 | ERROR | flg $id-hc-hg is on | 原因: $id-hc-hg フラグは、quickCheck によって検出されました。 処置: フェイルオーバーを試みます。 |
140250 | FATAL | Socket open failed. Check if the port \"$port\" is in use by ‘ss -anp’. | 原因: ソケットをオープンできませんでした。 処置: ‘ss -anp’ でポートが使用されているかどうかを確認し、使用しているプロセスを強制終了してください。 |
140251 | ERROR | Health probe not received. Check that the probe from the load balancer is set correctly, including the firewall. | 原因: ロードバランサーからのプローブが $HC_TIMEOUT 秒以内に受信されませんでした。 処置: ファイアーウォールを含め、ロードバランサーからのプローブが正しく構成されていることを確認してください。 |
140252 | FATAL | Could not create the flag by \"$cmdline\". | |
140253 | ERROR | Failed to accept the health probe:$reason | |
140254 | FATAL | $errmsg | |
140256 | FATAL | Failed to save pid into $lbhc::LKROOT/config/$id.pid. | |
140257 | FATAL | Resource already deleted | |
140258 | FATAL | kill $pid failed with ret=$ret, kill the process \"$pid\" manually. | |
140320 | FATAL | $usage | |
140321 | FATAL | Error getting resource information for $tag on server $lbhc::me. | |
140330 | FATAL | $usage | |
140331 | FATAL | Error getting resource information for $tag on server $lbhc::me. | |
140340 | FATAL | $usage | |
140341 | FATAL | Error getting resource information for $tag on server $lbhc::me. | |
140350 | FATAL | $usage | |
140351 | FATAL | Error getting resource information for $tag on server $lbhc::me. | |
140360 | FATAL | $usage_l | |
140361 | FATAL | invalid ID \"$id\" | |
140362 | FATAL | $usage_w | |
140363 | FATAL | Error getting resource information for $tag on server $lbhc::me. |
このトピックへフィードバック